944 resultados para Istituto per le opere di religione
Resumo:
La ricerca si propone di sondare in maniera completa e approfondita la rappresentazione del banchetto nel testo letterario e, in senso più ampio, nel testo inteso come sistema di segni (siano essi parole, gesti, espressioni facciali, modi di esprimersi, mezzi di comunicazione in genere). Il banchetto è una ‘messa in scena’ che assume nel testo letterario e nei linguaggi espressivi dell’arte contemporanea diverse funzioni a livello tematico e stilistico. Nel lavoro si analizza ognuna di queste funzioni: la funzione denotativa, connotativa, strutturale, metaforica, metanarrativa e stilistica e comunicativa. La linea di analisi tracciata si conclude con un particolare focus sulla rappresentazione del banchetto nel testo letterario e nei media come strumento di comunicazione all’interno di un altro mezzo di comunicazione. Con questa premessa la candidata termina con il capitolo conclusivo dedicando spazio all’immagine del pasto postmoderno. Il banchetto, in quanto rito simbolico, media contenuti legati all’universo culturale, rivela connessioni con la realtà storico-sociale, con l’assetto profondo dell’identità individuale e collettiva, costituendo un polo di aggregazione di diverse dimensioni di umanità. Nonostante l’estrema duttilità alla quale si presta l’immaginario del banchetto sul piano artistico e concettuale, nella quotidianità il momento conviviale continua per l’uomo postmoderno a evocare sentimenti e valori tradizionali ai quali ispirarsi.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
Ce mémoire propose la traduction de certains passages du livre « Per dieci minuti » de Chiara Gamberale. Ce roman raconte l’histoire de Chiara, une fille qui, pendant un période de troubles de sa vie où elle croit avoir perdu tous ses points de repère, décide d’essayer une thérapie-jeu: tous les jours, pendant dix minutes, elle doit faire quelque chose de nouveau, qu’elle n’a jamais expérimenté avant. Ce traitement thérapeutique s’inspire de la théorie des six exercices de Rudolf Steiner, un pédagogue autrichien qui décrit les six étapes fondamentales pour retrouver l’équilibre intérieur. D’un côté, ce mémoire veut souligner l’importance de se consacrer à la traduction d’un genre qui semble avoir de plus en plus du succès de nos jours: la littérature sur le développement personnel et le bien-être. De l’autre, il présente une analyse de l’histoire de la traduction, surtout en ce qui concerne la traduction des référents culturels, à travers une comparaison entre l’approche « normalisante » et l’approche « exotisante ». De plus, il traite le sujet épineux, puisque complexe et fascinant en même temps, des « intraduisibles », c’est-à-dire les implicites culturels. Il s’agit de mots pour lesquels il est impossible de trouver un équivalent direct dans les autres langues puisqu’ils décrivent les habitudes spécifiques d’une certaine communauté ou ils sont le fruit d’une vision spécifique et unique du monde de la part d’une culture. Moi-même, à travers cette traduction, j’ai dû me confronter avec toute une série de défis au niveau traductif , liés surtout au contexte culturel et au style de l’écrivain: j’ai traduit par exemple des parties en dialecte, des passages en rimes et j’ai dû même reproduire volontairement des erreurs de grammaire afin de m’adapter au registre linguistique de certains personnages.
Resumo:
In quest'elaborato si affronterà l'analisi dell'interprete nelle zone di conflitto, una figura che è sempre più al centro dell'interesse di media internazionali, studenti e professori. Dopo un'introduzione al ruolo e alle funzioni dell'interprete, si analizzerà la tipologia dell'interpretazione di comunità e, successivamente, si punteranno i riflettori sull'interprete nelle aree instabili del pianeta. Particolare rilievo verrà dato a come muti la sua immagine a seconda delle varie parti in guerra e quanto la sua vita sia molto spesso in pericolo. In conclusione, si analizzeranno i progetti di alcune università di interpretazione che hanno risposto piuttosto prontamente alla necessità di una formazione professionalizzante per le figure di interpreti e mediatori interculturali nelle aree sensibili della terra, senza dimenticare le iniziative internazionali volte alla loro protezione.
Resumo:
Scopo dell'opera è implementare in maniera efficiente ed affidabile un metodo di tipo Newton per la ricostruzione di immagini con termine regolativo in norma L1. In particolare due metodi, battezzati "OWL-QN per inversione" e "OWL-QN precondizionato", sono presentati e provati con numerose sperimentazioni. I metodi sono generati considerando le peculiarità del problema e le proprietà della trasformata discreta di Fourier. I risultati degli esperimenti numerici effettuati mostrano la bontà del contributo proposto, dimostrando la loro superiorità rispetto al metodo OWL-QN presente in letteratura, seppure adattato alle immagini.
Resumo:
La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.
Resumo:
Questo lavoro di tesi riassume le fasi di progettazione e realizzazione di un'applicazione per sistemi mobili multi-piattaforma, realizzata nell'ambito di un tirocinio aziendale.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. Lo scopo che mi propongo con questa tesi è quello quindi di cercare di fare chiarezza in quello che è il mondo del Cloud computing, focalizzandomi particolarmente su quelli che sono i design pattern più utilizzati nello sviluppo di applicazioni di tipo cloud e presentando quelle che oggi rappresentano le principali tecnologie che vengono utilizzate sia in ambito professionale, che in ambito di ricerca, per realizzare le applicazioni cloud, concentrandomi in maniera particolare su Microsoft Orleans.
Resumo:
La semplicità, affidabilità, robustezza ed economicità del motore asincrono trifase ne fanno un motore largamente utilizzato sia in ambiente industriale che civile (pompe, ascensori, montacarichi, nastri trasportatori, ventilatori, locomotive ferroviarie, …). È ipotizzabile che in futuro vi sarà sempre più largo impiego di motori elettrici e i recenti sviluppi nella tecnologia dei convertitori elettronici per il controllo dei motori asincroni ne consentiranno l’uso in sempre più estesi ambiti applicativi. La messa sotto tensione di motori a media/alta potenza presenta però, in fase di avviamento, correnti di spunto e coppie elevate che devono essere controllate. In questa tesi saranno pertanto studiate le tecniche di protezione, avviamento e controllo dei motori asincroni trifase Nel primo capitolo esamineremo le funzioni di sezionamento, comando e protezione da cortocircuiti e sovraccarichi e i dispositivi adatti a svolgere tale compito in modo coordinato. Nel secondo capitolo esamineremo le principali tecnologie usate per l’avviamento dei motori, da quelle più semplici a quelle che impiegano dispositivi elettronici allo stato solido: Soft-Starters a tiristori (solo regolazione AC), Inverters a transistori (controllo sia in frequenza che ampiezza della forma d’onda AC generata). Fra tutti i possibili convertitori DC/AC analizzeremo dettagliatamente esclusivamente quelli a controllo PWM analogico che costituiranno l’oggetto della trattazione dei capitoli seguenti.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
Un sistema per il mapping di access point wi-fi utilizzando un client scritto in android ed un server scritto in php. Il client si occuperà di scansionare le reti disponibili ed inviarle al server che con tali informazioni potrà inferire sulle posizioni effettive degli access point e fornire ad altri client informazioni più dettagliate per potersi connettere.
Resumo:
Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.
Resumo:
La ricerca indaga le relazioni che si sono instaurate nel corso degli anni tra il principio di legalità, inteso nella sua declinazione di principio di funzionalizzazione, e principio di concorrenza nell’ambito delle società per la gestione dei servizi pubblici locali. Più precisamente, lo scopo del lavoro è valutare le evoluzioni di tale rapporto, dal momento in cui gli enti locali sono stati ufficialmente autorizzati a costituire società per la gestione dei servizi pubblici locali nel 1990. Lo stimolo a sviluppare queste considerazioni trova la sua ragione nelle pressioni provenienti dalle istituzioni europee, che hanno gradualmente imposto una qualificazione prettamente economica ai servizi a favore della collettività, ritenuti un ambito in cui possa naturalmente imporsi una competizione economica tra operatori economici, indipendentemente dalla loro natura giuridica. Il problema del vincolo funzionale nella partecipazione in società degli enti locali è certamente l’oggetto principale del lavoro. Tuttavia, la questione non può essere analizzata separatamente dalle politiche di dismissione promosse dal legislatore nell’ultimo decennio. L’obiettivo principale delle riforme avviate è stato quello di frenare la proliferazione di società costituite dagli enti locali, così da garantire sia un risparmio di risorse pubbliche sia una maggiore facilità per gli imprenditori privati ad affacciarsi su mercati tradizionalmente appannaggio delle amministrazioni. Stona però con le intenzioni il fatto che gli obblighi ex lege di cessione delle partecipazioni azionarie detenute dagli enti locali non siano stati generalmente imposti per le società di gestione dei servizi pubblici (resi in favore della collettività), bensì per quelle che svolgono servizi strumentali (in favore dell’amministrazione stessa). La scelta appare contraddittoria, in quanto il distacco tra vincolo funzionale e partecipazione degli enti locali nella compagine societaria si ravvisa in particolar modo nel primo dei due moduli menzionati. Si assiste dunque ad una frammentazione del principio di legalità.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.