892 resultados para Editor di Testo collaborativi,comportamento utenti,etherpad lite,RTCE
Resumo:
Che cosa fa di una storia una buona storia? Che cosa significa ascoltare? Perché ci piace raccontare storie altrui? In che cosa consiste l’editing e fino a che punto è invasivo? Che cosa succede fra chi racconta e chi ascolta? La risposta a queste domande è nascosta in ogni intervista. Le storie raccolte in questa tesi si offrono a molte possibili letture da parte di critici letterari, sociologi, filosofi. È necessario però anche ascoltare, registrare, annotare le parole di qualcuno che regala la sua storia; perciò la tesi è un intreccio di ricerca teorica ed empirica. Si interrogano psicologi per scoprire che cosa succede fra chi racconta e chi ascolta; giornalisti per imparare in che cosa consiste l’editing; critici letterari per capire perché ci piace raccontare storie altrui; filosofi per mostrare che cosa significa ascoltare; scrittori per definire che cosa faccia di una storia una buona storia. Alle persone incontrate viene chiesto soltanto di ricordarsi, raccontarsi e affidarsi a quella duplice ricerca del senso anche chiamata intervista. L'intervista che fa da protagonista a questa tesi, "Polvere, pane e burro", è stata pubblicata sul numero 225 della rivista Una Città. I punti di riferimento sono infatti, da una parte, la redazione di Una Città -con cui ho collaborato per tre anni- e lo scrittore italiano Aldo Nove, autore di "Mi chiamo Roberta, ho 40 anni, guadagno 250 euro al mese". Un'intervista ad Aldo Nove è presente in appendice.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
I sistemi di autenticazione con secondo fattore permettono una migliore protezione dell'identità digitale degli utenti. Questo lavoro descrive l'analisi e progettazione della soluzione di autenticazione a più fattori da integrare nel sistema di Ateneo, conclusasi con lo sviluppo del modulo di integrazione tra il servizio di autenticazione Web Single Sign-On dell'Università di Bologna (ADFS 3.0) e la piattaforma scelta per la fornitura (Time4ID). L'integrazione è stata effettuata programmando un Authentication Provider, costituito da una libreria di integrazione scritta in C#, capace di integrarsi con la piattaforma cloud-based di verifica del secondo fattore.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
Scopo di questa tesi è lo sviluppo di un codice nell'ambiente per il calcolo numerico Matlab atto a simulare il comportamento di un compressore centrifugo. Tale compressore centrifugo è stato studiato per l'utilizzo in un gruppo turbogas per la produzione di energia elettrica. Con l’utilizzo di alcune semplificazioni, è stata tracciata la mappa di tale compressore in intervalli di portata e salti di pressione il più possibile distanti dal funzionamento con condizioni di progetto.
Resumo:
Il lavoro svolto in questa tesi fa parte di un progetto volto alla realizzazione di un sistema per svolgere test di guida di motoveicoli al banco a rulli, gestendo l’intera prova in remoto, ossia dall’esterno della cella. Tale sistema, denominato RideIT, è stato progettato da Alma Automotive per conto della nota casa motociclistica MV Augusta. Tramite il sistema RideIT, è possibile automatizzare la guida di motoveicoli sul banco a rulli, riproducendo via software, tramite un modello che governa degli attuatori, il comportamento del pilota per quel che riguarda gli azionamenti di acceleratore, frizione, cambio e freno durante un test. I vantaggi di questa soluzione riguardano soprattutto la sicurezza degli addetti, che possono effettuare tutte le prove del caso rimanendo al di fuori della sala prove, oltre alla possibilità di incrementare la ripetibilità e la riproducibilità dei risultati dei test, grazie all’eliminazione del fattore di soggettività legato al guidatore. Il sistema nasce con la specifica di poter eseguire test di omologazione al banco a rulli anche se, grazie alla flessibilità che è in grado di garantire, può essere perfettamente riconfigurato, anche in vista di futuri sviluppi del progetto.
Resumo:
Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.
Resumo:
Tesi rivolta allo studio del comportamento di Google Inc. nel campo delle lobby, in America ed in Europa: quanto investe nell'attività di lobbying, quali leggi vuole far approvare, perché è interessata a quel disegno di legge, differenze tra lobby americane ed europee e difficoltà incontrate in Europa.
Resumo:
In questa tesi inizialmente ci si è occupati di definire ed approfondire le caratteristiche della tecnologia Wi-Fi Direct, illustrandone il funzionamento, l’architettura e gli scenari di utilizzo. Successivamente è stata sviluppata un’applicazione basata su tale tecnologia, con lo scopo di fornire un servizio di disseminazione di messaggi d’aiuto in situazioni di emergenza o di catastrofi naturali, nelle quali la rete cellulare viene inevitabilmente meno. In queste occasioni c’è il bisogno di avere uno strumento che permetta di comunicare in maniera facile, veloce e che sia alla portata di tutti. Caratteristiche e qualità proprie di uno smartphone, dispositivo che oggigiorno è presente nelle tasche di ognuno di noi. L’obiettivo finale infatti, sarebbe quello di creare un applicativo che possa idealmente essere preinstallato in ogni nostro dispositivo, un servizio che sia diffuso, compreso ed utilizzabile istantaneamente da tutti, in modo tale da essere una sicurezza e un aiuto di vitale importanza in situazioni di pericolo. Per lo sviluppo di una tale applicazione ci si è basati sul sistema operativo Android, che è il più diffuso tra gli utenti di tutto il mondo. Nel primo capitolo ci si è occupati di di presentare ed approfondire la tecnologia Wi-Fi Direct, definendone gli ambiti generali di utilizzo e le problematiche che vengono affrontate. Nel secondo capitolo si prosegue con la presentazione della tecnologia in ambiente Android, descrivendo le API fornite da Google per l’utilizzo del servizio in questione. Nel terzo capitolo, dopo un’analisi dei progetti che coinvolgono tale tecnologia, viene illustrata l’applicazione creata, le sue funzionalità e caratteristiche ed eventuali casi d’uso. Nel quarto capitolo è stata inserita la parte più tecnica, dove illustro i problemi incontrati e le modalità di risoluzione degli stessi, insieme alle strutture ed agli oggetti messi a disposizione da Java che sono stati utilizzati. Infine nel capitolo conclusivo è stato fatto un riepilogo del lavoro svolto, indicando le difficoltà incontrate ed eventuali possibili miglioramenti e sviluppi futuri del mio progetto.
Resumo:
Il contributo di questo lavoro è stata la realizzazione di un motore di layout specializzato per il testo a fronte basato su paradigma dichiarativo chiamato Sider, che permette all'utente di generare automaticamente layout a fronte anche complessi specificando direttamente le regole da utilizzare per l'allineamento, riducendo drasticamente i problemi legati agli approcci tradizionali. La scelta di seguire un approccio dichiarativo, è stata dettata dal fatto che è il paradigma che permette di ottenere il miglior compromesso tra automatizzazione del layout e interazione utente poiché per natura stessa del testo a fronte l'intervento umano non è totalmente eliminabile.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Il seguente lavoro è uno studio preliminare motivato dalla possibilità di integrazione di un sistema ecografico portatile in un'apparecchiatura per Tecarterapia. Lo scopo è permettere al fisioterapista di dare una valutazione oggettiva dell'efficacia dei trattamenti erogati, mediante il calcolo di parametri oggettivi: il confronto tra questi consentirà il monitoraggio e la valutazione del follow-up. La Tecarterapia è particolarmente efficace nel trattamento precoce non chirurgico di tendinopatie e lesioni muscolari e per dimostrarlo sono stati sviluppati due algoritmi per il calcolo automatico di parametri caratterizzanti il tendine e il muscolo. Questi sono stati testatati su pazienti affetti da tendinopatia al tendine d'Achille e lesione ai muscoli flessori della coscia prima e dopo un ciclo di Tecar e i risultati ottenuti hanno rispecchiato le aspettative, permettendo di stabilire oggettivamente l'efficacia della terapia. Per permettere anche ad utenti non esperti in programmazione di utilizzare questi strumenti di calcolo, è stata elaborata, separatamente per le lesioni e le tendinopatie, un’ interfaccia grafica in Matlab.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
L’Otello di Luigi Lo Cascio è stato concepito nella volontà di mettere in luce come non sia Otello bensì Desdemona la straniera del dramma. Il mio lavoro rileva in primo luogo in che modo l’autore sia riuscito a raggiungere il suo obiettivo utilizzando diversi espedienti: esplicitare la scelta di riportare la vicenda raccontando di un generale bianco, per non suscitare pregiudizi avversi ad una corretta interpretazione; isolare linguisticamente Desdemona, unica parlante italiana in un universo di voci palermitane, per enfatizzare la solitudine della donna che, circondata da soli uomini, non ha possibilità di essere vista e compresa per quello che è, in quanto viene interpretata attraverso immagini stereotipate; inserire un narratore interno che guidi gli spettatori attraverso il ragionamento dell’autore. In secondo luogo, il mio elaborato confronta l’opera di Lo Cascio con quella di Shakespeare dimostrando come già all’interno di quest’ultima fossero presenti tutti gli elementi necessari per dare all’Otello l’interpretazione che ne dà l’autore palermitano: la perfetta integrazione di Otello nella società veneziana, che esclude il comune ricorso alle diverse culture dei coniugi per giustificare il comportamento violento del Moro; la visione idealizzata della figura femminile, che impedisce ai personaggi maschili di vedere la realtà; l’impossibilità di conciliare la donna reale con quella immaginata, vero movente dell’assassinio di Desdemona.
Resumo:
Opera di recente pubblicazione, "The Story of Kullervo" è il racconto che più di tutti mostra l'esistenza di un profondo legame tra J. R. R. Tolkien e la lingua e cultura finlandese. Scopo di questo elaborato è quello di analizzare soprattutto il rapporto tra l'autore e il poema epico finlandese, il Kalevala, proponendo la traduzione della storia. L'elaborato è strutturato nel seguente modo: nel primo paragrafo viene trattato il Kalevala come opera letteraria e come fonte di ispirazione per Tolkien. Nel secondo paragrafo viene analizzato il testo del racconto in quanto testo letterario e nel terzo vengono commentate le scelte traduttive effettuate.