358 resultados para Chiesa di S. Maria della salute (Venice, Italy)
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
Gran parte del patrimonio edilizio italiano è costituito da un'edilizia minore realizzata per lo più negli anni successivi al secondo dopoguerra. Una delle più significative esperienze di ricostruzione è rappresentata dai quartieri Ina-Casa, che oltre a rispondere all'elevata richiesta abitativa, hanno contribuito a dare una forma all'espansione disorganizzata delle città e si sono rivelati l'ultima vera occasione per gli architetti di essere protagonisti della storia nazionale. Tuttavia, ad oggi, manca la consapevolezza diffusa del grande valore storico, identitario e patrimoniale di queste porzioni di città e della necessità di un congruo intervento di valorizzazione e riqualificazione. Specialmente nelle piccole realtà, come Cesena, questo ha comportato una forte alterazione dei caratteri originari secondo scelte arbitrarie ed interventi disomogenei. A seguito dell'analisi approfondita della piccola unità di vicinato della Fiorita, si è deciso di adottare un approccio metodologico diversificato tra aspetti urbanistici e relativi al singolo alloggio. Da una parte è stato elaborato un progetto urbanistico che tenesse conto di tutte le specificità del luogo, in particolare della presenza di una popolazione residente molto attiva e determinata nella valorizzazione del proprio quartiere. Dall'altra è stato redatto un manuale di possibili interventi, pensati per rispondere alle attuali esigenze estetiche, prestazionali e funzionali dell'alloggio, corredato da un sistema incentivante a punteggio. Nell'insieme questa esperienza evidenzia le potenzialità di un progetto di rigenerazione urbana che può essere sperimentato anche in altri contesti della città.
Resumo:
L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.
Resumo:
Una particella carica che si muove in un campo magnetico e` accelerata dalla forza di Lorentz, e di conseguenza emette della radiazione. Quindi si escludo- no a priori i neutroni, che sebbene siano formati da particelle cariche (i quarks) sono globalmente neutre. Per accelerazione, si intende anche solo un’acce- lerazione centripeta di cui risentono le particelle cariche nel campo, sebbene non vi sia una variazione nel modulo della velocita`. In base alla velocita` delle particelle cariche che si muovono nel campo magnetico si possono distinguere radiazione di ciclotrone e di sincrotrone. La radiazione di ciclotrone e` presente quando le particelle cariche hanno velocita` non relativistiche o relativistiche, invece la radiazione di sincrotrone e` presente quando le particelle hanno velo- cita` ultra-relativistiche. Entrambe sono radiazioni che non necessitano dell’equilibrio termico del mez- zo, e sono radiazioni impulsive. Cio` che le distingue, a parte la velocita`, e` la tipologia di impulsi che si misurano. Infatti nel caso del sincrotrone, ove le par- ticelle sono ultra-relativistiche, gli impulsi arrivano molto ravvicinati fra loro. Nel caso del ciclotrone arrivano impulsi meno ravvicinati che coincidono con la frequenza di rotazione nel campo magnetico. In questo elaborato ci si soffermera` esclusivamente sull’emissione di sincro- trone e su alcune applicazioni astrofisiche di questo processo, cercando di dare una trattazione sufficiente, seppur scarna, ai fini di capire un processo fisico molto importante negli ambienti astrofisici.
Resumo:
Questa tesi presenta un'analisi della community italiana di fansubbing di Italian Subs Addicted, nota come ItaSA. Dopo un'introduzione generale sul fenomeno del fansubbing, ovvero la traduzione amatoriale di sottotitoli, si passa a un'analisi della community stessa, della sua organizzazione interna e del test per diventare traduttori. Nel capitolo 4 vengono presentate le regole per la traduzione e la creazione di sottotitoli, con il supporto di screenshot di varie serie TV, e si ha la descrizione della traduzione di una puntata della serie TV "True Detective" in tempo reale. Il capitolo 5 tratta il rapporto tra gli utenti e lo staff della community, un elemento peculiare che contraddistingue il fansubbing dalla produzione di sottotitoli tradizionali. Il capitolo 6 analizza brevemente il controverso tema della legalità dei sottotitoli. Infine, nella conclusione ho inserito una questione che negli ultimi mesi è stata molto dibattuta nella community, ovvero le conseguenze dell’imminente avvento di Netflix, un servizio di TV online, sul futuro del fansubbing.
Resumo:
L’idea del presente elaborato è nata da una curiosità ed interesse personale di un corso svolto in Erasmus presso la Fachhochschule Köln. Ho subito pensato di approfondire il tema dell’interprete giudiziario e giuridico come figura determinante sia nel processo penale che nella società. Per dare un quadro generale della situazione ho deciso di dividere la tesi in tre capitoli. Nel primo capitolo spiegherò il concetto di interpretazione, attività interlinguistica tesa a creare una comunicazione tra persone di diverse lingue, presentando le varie tipologie e facendo un accenno alla figura del mediatore linguistico-interculturale. Nel secondo capitolo, porrò l’attenzione sul diritto all’assistenza linguistica dell’imputato e della vittima alloglotta durante il processo penale con l’obiettivo di evidenziare le tutele linguistiche europee e in particolar modo italiane. Mi concentrerò, inoltre, sulla mancanza di una formazione adeguata della professione, in Italia, con lo scopo di delineare la necessità di agire di fronte a una situazione di diritti negati, di ruoli misconosciuti, di assenza di consapevolezza e di conoscenza. Nel terzo ed ultimo capitolo mi soffermerò sull’interpretazione giuridica analizzando il video pedagogico di un interrogatorio della questura di Forlì-Cesena, tratto dal progetto europeo ImPLI - Improving Police and Legal Interpreting, per mettere in evidenza le tecniche di interrogatorio utilizzate e le difficoltà che si presentano nel mediare per le indagini di polizia.
Resumo:
Lo scopo di questa tesi è quello di indagare sul ruolo del traduttore audiovisivo nel processo di traduzione di una serie televisiva messicana, Bienvenida Realidad. Nella prima parte si analizzano genere, personaggi e temi della serie in questione. Nel corpo centrale della tesi si illustrano le esigenze tecniche del sottotitolaggio e del doppiaggio, e si spiega perché è preferibile dedicarsi allo studio del sottotitolaggio. Successivamente si studiano alcuni dei problemi traduttivi più rilevanti legati all'aspetto linguistico e al contesto culturale della lingua di partenza e della lingua d'arrivo. Infine si ipotizza l'inserimento del prodotto nel mercato della Tv italiana, grazie ad una breve analisi dei gusti dei giovani spettatori e all'osservazione del comportamenti che alcuni canali televisivi assumono nei confronti del genere giovanile del teen drama.
Resumo:
Lo scopo che questa tesi ha è di inserirsi nell’ambito della Smart Mobility, in particolare nell'ambito dell’accessibilità urbana. Obiettivo primario è di offrire un software capace di adattarsi alle capacità dell’utente nel muoversi nell’ambiente urbano, in particolare riguardo alle barriere architettoniche che lo ostacolano. Quello che il programma deve fare è offrire percorsi per l’utente, personalizzati rispetto alle sue richieste. Affinché sia possibile tutto ciò, sono necessarie delle fondamenta, nella fattispecie una fonte di dati geografici e uno strumento che permetta di ricercare percorsi da essi e di essere modificato per includere le modifiche volute. La fonte di dati geografici scelta è stata OpenStreetMap, un progetto di crowdsourcing che punta a creare una mappa globale completamente accessibile fino al suo livello più basso e utilizzabile da chiunque, purché sia rispettata la sua licenza. Da questa scelta, derivano i software utilizzabili per calcolare i percorsi: la tesi ne esplorerà in particolare due GraphHopper e OpenTripPlanner, entrambi progetti open source. L’ultimo, ma non meno importante, scopo della tesi è effettivamente implementare un algoritmo di routing capace di considerare le preferenze degli utenti. Queste preferenze, infatti, non devono solo permettere di escludere percorsi con una barriera/architettonica cui l’utente non può accedere, ma anche di favorire percorsi con le facility che l’utente preferisce e di sfavorire quelli con facility che l’utente non preferisce.
Resumo:
La presente tesi discute lo studio, la progettazione e la realizzazione di una pompa di calore aria-acqua con serbatoio Puffer integrato. Dopo una panoramica delle pompe di calore in generale e del loro funzionamento, viene trattata la classificazione delle pompe di calore in base alle sorgenti da cui prelevano calore e a cui cedono calore. Sono successivamente descritti i fluidi frigoriferi che è possibile utilizzare nel circuito e le loro caratteristiche e la componentistica del circuito a pompa di calore, sia per quanto riguarda l'unità esterna che l'unità interna, descrivendo in generale i componenti che è possibile trovare all'interno di una pompa di calore, non solo analizzando, quindi, il nostro progetto nello specifico. Seguono una descrizione dei sistemi di produzione di acqua calda sanitaria, facendo una breve panoramica sui serbatoi, in quanto il nostro prodotto finale prevede l'integrazione nell'unità interna del serbatoio puffer per la produzione appunto di ACS, e, infine, una descrizione dell'analisi di mercato e della concorrenza effettuata preliminarmente e della progettazione e della realizzazione della pompa di calore aria-acqua con serbatoio integrato.
Resumo:
Gli eventi sismici del 2012 in Emilia-Romagna hanno provocato una rinnovata attenzione su alcuni fenomeni di carattere geologico superficiale. Sono stati in particolare riferiti dalla stampa locale e osservati dagli abitanti gorgogliamenti di gas naturale nelle acque dei pozzi, nelle acque dei canali di bonifica ed emissioni di gas libero, in prevalenza metano. In questa tesi si è voluto mettere in luce tutto lo sviluppo storico del metano Padano, facendo un particolare riferimento al metano più superficiale, ossia al metano denominato biogenico, illustrando le sue origini, le sue prime manifestazioni, la sua scoperta, la sua derivazione dalla torba, le sue prime produzioni, considerando gli impatti ambientali possibili e verificati, arrivando fino all’attuale periodo in cui esso si è affermato diventando una delle fonti principali di energia ed una delle materie prime più preziose. La Tesi ha lo scopo di meglio chiarire l’origine e la modalità di occorrenza del metano biogenico Padano. Viene inoltre sviluppata una indagine orientata a identificare gli orizzonti geologici più “produttivi” di metano biogenico della regione Emilia-Romagna originato da torbe. Le aree effettivamente più produttive sono una parte di quelle ricche in torba e sono caratterizzate da buone capacità di conservazione nel tempo delle caratteristiche chimico fisiche favorevoli alla degradazione batterica della sostanza organica. Ciò avviene quando vengono mantenute particolari condizioni di isolamento tramite argille ecc. Il metano biogenico Padano viene costantemente espulso dai sedimenti e naturalmente disperso in atmosfera. Eventuali attività di captazione del metano dalle aree maggiormente produttive potranno contribuire alla diminuzione dell’effetto serra e alla contestuale produzione a piccola o piccolissima scala di energia nei limiti delle normative in vigore soggette ad eventuali possibili revisioni in analogia a quanto disposto per altre forme di generazione di metano come biogas, discariche ecc.
Resumo:
Il consumo di prodotti da forno lievitati in Italia, è rilevante in occasione di alcune feste religiose quali Pasqua e Natale. Prodotti come il Panettone e Colomba hanno acquisito una diffusione nazionale ed internazionale. Questi prodotti sono ottenuti mediante procedure specifiche caratterizzate da passaggi simili. In ogni caso la loro preparazione parte dall’utilizzo di un lievito madre continuamente rinfrescato. Il lievito madre (o impasto acido) è una miscela di acqua e farina fermentata da un microbiota complesso che include LAB, che producono acido lattico, e lieviti fermentativi che producono CO2 ed etanolo con conseguenze sulle caratteristiche reologiche e organolettiche, soprattutto per il profilo aromatico del prodotto finale. In questo lavoro mi sono occupato di valutare l’evoluzione della composizione microbica della Colomba nelle diverse fasi del processo produttivo, cercando di individuare le relazioni fra il microbiota e alcune caratteristiche chimico-fisiche del prodotto. Il lavoro di caratterizzazione del microbiota del prodotto, effettuato nelle diverse fasi del processo produttivo, ha mostrato come l’impasto madre sia caratterizzato da una bassa biodiversità sia di LAB che di lieviti. I microorganismi dominanti risultano essere due biotipi della specie L. sanfranciscensis e, per i lieviti, un solo biotipo della specie T. delbrueckii, con la comparsa di C. humilis solo in un campione con una frequenza relativa molto bassa. Per quel che riguarda l’evoluzione del microbiota durante il processo produttivo, l’aggiunta del lievito commerciale altera i rapporti tra LAB/ lieviti dove le concentrazioni dei LAB, durante impastamento, si riducono incidendo sulle caratteristiche chimico-fisiche degli impasti stessi in termini di maggiori valori di pH e ridotto contenuto in acido lattico. L’aggiunta di S. cerevisiae e successiva lievitazione incidono significativamente sul profilo aromatico del prodotto, in termini di riduzione di acidi (acido acetico) e di esteri ed aumento di molecole: etanolo, alcol fenetilico, acetaldeide ed acetoino, derivanti del lievito commerciale.
Resumo:
In questa tesi viene affrontato lo studio degli integrali funzionali nella meccanica quantistica, sia come rielaborazione dell'operatore di evoluzione temporale che costruendo direttamente una somma sui cammini. Vengono inoltre messe in luce ambiguit\`a dovute alla discretizzazione dell'azione corrispondenti ai problemi di ordinamento operatoriale della formulazione canonica. Si descrive inoltre come una possibile scelta della discretizzazione dell'integrale funzionale pu\`o essere ottenuta utilizzando l'ordinamento di Weyl dell'opertore Hamiltoniano, sfruttando la relazione tra Hamiltoniana Weyl ordinata e la prescrizione del punto di mezzo da usare nella discretizzazione dell'azione classica. Studieremo in particolare il caso di una particella non relativistica interagente con un potenziale scalare, un potenziale vettore (campo magnetico) ed un potenziale tensore (metrica).
Resumo:
Lo studio della sfera emozionale è stato da sempre oggetto d’interesse da parte di molti ambiti della Scienza, nonostante la sua perfetta mappatura costituisca ancora oggi un’ambizione non del tutto raggiunta. Comprendere quale sia il meccanismo specifico di genesi ed elaborazione delle emozioni e quali aree encefaliche ne siano responsabili, costituisce per gli scienziati una sfida di grande interesse. L’importanza dell’Amigdala nello studio e nella comprensione delle emozioni è conseguente alla scoperta di come questa struttura sia responsabile della genesi di un'emozione: la paura. Antica e ben radicata nel percorso evolutivo di ogni specie, la reazione di paura davanti ad un pericolo ha una funzione positiva: protegge da stimoli potenzialmente dannosi e, di base, non si apprende: tutti sono in grado di provare paura. L’Amigdala, denominata anche complesso nucleare amigdaloideo, è una struttura eterogenea, costituita da circa 13 nuclei e localizzata nella parte mediale del lobo temporale. I nuclei amigdaloidei vengono divisi in 3 gruppi: nuclei profondi, nuclei superficiali ed altre aree amigdaloidee. Le caratteristiche citoarchitettoniche e neurochimiche del complesso nucleare amigdaloideo sono state largamente studiate nei Mammiferi terrestri quali: ratto, scimmia, gatto ed Uomo. In letteratura non sono presenti particolari riferimenti ai Mammiferi marini. Per questo motivo la presente ricerca si propone di mostrare le caratteristiche citoarchitettoniche e neurochimiche del nucleo centrale dell’amigdala di tursiope (Tursiops truncatus), con particolare riferimento alle caratteristiche morfometriche dei neuroni esprimenti parvalbumina, calbindina-D28k e calretinina.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Con il presente lavoro si intende portare a termine una ricerca terminologica in italiano e tedesco nell'ambito degli Organismi Geneticamente Modificati. L'obiettivo finale della tesi è inoltre la realizzazione di un database terminologico bilingue, pensato per facilitare il lavoro di traduttori non necessariamente specializzati in tale ambito. L'idea della tesi nasce da uno stage svolto presso la Direzione Generale della Traduzione (DGT) di Lussemburgo, incentrato sulla revisione e l'aggiornamento di una parte della banca dati terminologica dell’Unione Europea (IATE) legata al dominio degli OGM. L'esperienza di tirocinio, in particolare, verrà descritta nella prima parte del lavoro, il quale si articolerà poi in altri 4 punti fondamentali. Nel secondo capitolo si effettuerà una panoramica generale sugli OGM, tematica di grande attualità che riscontra un ampio interesse anche tra la popolazione. Nel terzo capitolo si tratterà l'argomento delle lingue speciali e della terminologia da un punto di vista generale, per poi evidenziare più nel dettaglio le caratteristiche della lingua del dominio di indagine. Nel quarto capitolo, dopo una breve introduzione relativa alla linguistica dei corpora, si effettuerà una descrizione dettagliata delle varie fasi del lavoro terminologico, in cui sono comprese la creazione dei corpora, l'estrazione della terminologia e la realizzazione dei sistemi concettuali. Il quinto capitolo, infine, sarà incentrato sul database terminologico italiano-tedesco, il quale verrà riportato integralmente alla fine della tesi.