953 resultados para teoria della misura teorema di Radon-Nikodym statistica sufficiente
Resumo:
Negli ultimi anni va sempre più affermandosi l’idea che nei test a fatica utilizzati in ambito industriale per testare la resistenza di numerosi prodotti, riprodurre profili vibratori con distribuzioni gaussiane non sia sufficientemente realistico. Nell’indagine sperimentale riportata in questo trattato vengono confrontati gli effetti generati da sollecitazioni leptocurtiche ottenute da misurazioni reali, con profili vibratori gaussiani a parità di RMS e forma della PSD (Power Spectral Density) verificando la validità della “Papoulis rule”. A partire da questi profili vibratori si è effettuata una progettazione ad hoc dalla quale sono stati ricavati dei provini piatti in lega di alluminio a cui è collegata una massa ausiliaria. Quest’ultimi montati a sbalzo su uno shaker elettrodinamico, sono caratterizzati da una variazione di sezione che localizza la sezione critica in prossimità dell’incastro. I provini sono stati inoltre caratterizzati attraverso prove a trazione e test accelerati a fatica, ricavandone la caratteristica a trazione del materiale ed il diagramma di Wohler. In seguito alla descrizione di tali prove viene riportata un’analisi dei provini sollecitati da due profili vibratori, uno gaussiano e uno ad elevato valore di kurtosis, monitorando tramite l’impiego di accelerometri i valori dell’eccitazione e la risposta. Vengono inoltre verificati i valori delle deformazioni dovute alle sollecitazioni imposte collocando due estensimetri in corrispondenza della sezione critica di due provini (uno per ogni tipologia di input).
Resumo:
L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.
Resumo:
Questo elaborato si propone di analizzare le pratiche della localizzazione nel caso particolare del software destinato ai dispositivi mobili. Le innovazioni tecnologiche hanno portato grandi novità nell’ambiente della localizzazione, sia per quanto riguarda l’approccio, sia per le tecnologie e le tecniche utilizzate. In questa tesi di Laurea saranno anche approfonditi gli aspetti di un nuovo approccio alla traduzione in costante espansione, i fenomeni di traduzione collaborativa e traduzione in crowdsourcing. Nel capitolo 1 viene trattato il fenomeno della localizzazione, partendo dalle sue origini e ripercorrendo la sua storia per cercare di darne una definizione condivisa e delinearne le caratteristiche fondamentali, analizzando i vari fenomeni coinvolti nel processo. Il capitolo 2 affronta il tema della traduzione collaborativa e del crescente numero di community online di traduzione in crowdsourcing, un fenomeno recente che desta curiosità, ma anche preoccupazione all’interno degli ambienti della traduzione, in quanto molti sono i dubbi che pervadono i traduttori professionisti circa il ruolo che verrebbero a ricoprire in questo nuovo mercato linguistico. Nel capitolo 3 sono descritti i vari passaggi che un localizzatore deve compiere nel momento in cui affronta un progetto di localizzazione di una app per il sistema operativo Android, partendo dalla ricerca della stessa fino alla pubblicazione della versione localizzata sullo store o sui diversi repository online. Nel capitolo 4, infine, viene analizzato più approfonditamente Crowdin, uno dei sistemi di traduzione assistita collaborativi online, applicandolo nella pratica alla traduzione di una app per dispositivi mobili dotati di sistema operativo Android. Ne verranno descritti i diversi approcci, a seconda che l’utente sia un project manager oppure un traduttore freelance. Per concludere saranno trattati gli aspetti salienti della traduzione pratica di una app per Android.
Resumo:
Il punto di partenza del presente lavoro di ricerca terminologica è stato il soggiorno formativo presso la Direzione generale della Traduzione (DGT) della Commissione Europea di Lussemburgo. Il progetto di tirocinio, ovvero l’aggiornamento e la revisione di schede IATE afferenti al dominio finanziario, e gli aspetti problematici riscontrati durante la compilazione di tali schede hanno portato alla definizione della presente tesi. Lo studio si prefigge di analizzare la ricezione della terminologia precipua della regolamentazione di Basilea 3, esaminando il fenomeno della variazione linguistica in corpora italiani e tedeschi. Nel primo capitolo si descrive brevemente l’esperienza di tirocinio svolto presso la DGT, si presenta la banca dati IATE, l’attività terminologica eseguita e si illustrano le considerazioni che hanno portato allo sviluppo del progetto di tesi. Nel secondo capitolo si approfondisce il dominio investigato, descrivendo a grandi linee la crisi finanziaria che ha portato alla redazione della nuova normativa di Basilea 3, e si presentano i punti fondamentali degli Accordi di Basilea 3. Il terzo capitolo offre una panoramica sulle caratteristiche del linguaggio economico-finanziario e sulle conseguenze della nuova regolamentazione dal punto di vista linguistico, sottolineando le peculiarità della terminologia analizzata. Nel quarto capitolo si descrivono la metodologia seguita e le risorse utilizzate per il progetto di tesi, ovvero corpora ad hoc in lingua italiana e tedesca per l’analisi dei termini e le relative schede terminologiche. Il quinto capitolo si concentra sul fenomeno della variazione linguistica, fornendo un quadro teorico dei diversi approcci alla terminologia, cui segue l’analisi dei corpora e il commento dei risultati ottenuti; si considerano quindi le riflessioni teoriche alla luce di quanto emerso dalla disamina dei corpora. Infine, nell'appendice sono riportate le schede terminologiche IATE compilate durante il periodo di tirocinio e le schede terminologiche redatte a seguito dell’analisi del presente elaborato.
Resumo:
Questa tesi ha lo scopo di analizzare e approfondire tutte le caratteristiche del nuovo standard delle comunicazioni a radiofrequenza: NFC. Per meglio comprendere l'argomento trattato ho suddiviso la tesi in 5 capitoli: Nel primo capitolo si effettuerà una panoramica sul mondo delle tecnologie a radiofrequenza: parleremo della tecnologia RFID, di come è nata e di come si è sviluppata dagli anni 60 ad oggi, di come veniva utilizzata un tempo e di come oggi viene usata. Ulteriore tecnologia a radiofrequenza presa in considerazione in questo capitolo è la tecnologia Bluetooth, di cui conosceremo le origini e l’evoluzione che ha subito nel corso degli anni. Nel secondo capitolo si affronterà l’argomento principale di questa tesi ossia la tecnologia NFC. Si analizzerà nel dettaglio, capiremo come è nata e come si è evoluta, vedremo come funziona nello specifico, che tipo di componenti usa e vedremo quali sono stati gli elementi cardine che hanno portato a questa rapida diffusione. Nel terzo capitolo si prenderà in esame un prototipo di applicazione per smartphone Android per meglio capire come effettivamente comunicano tra loro hardware e software. Il progetto prende il nome di WeMoNFC e permetterà di attivare e/o disattivare un particolare interruttore tramite l’accostamento di un tag NFC al telefono. Come richiama il nome, il progetto utilizzerà due componenti principali: il primo, ovviamente, è il modulo NFC inserito di fabbrica all’interno dello smartphone, il secondo invece è un dispositivo dell’azienda americana Belkin: il WeMo Switch. Nel quarto capitolo infine si trarranno le dovute conclusioni su questo argomento, si osserveranno i dati di mercato e si cercherà di ricavare una possibile ipotesi su come questa tecnologia davvero alla portata di tutti diverrà, più o meno, importante in un futuro prossimo.
Resumo:
Con il presente lavoro si intende descrivere il progetto di localizzazione in tedesco del sito web http://officinadesign.net/ dell’azienda Officina Design, una piccola impresa con sede a Gambettola in provincia di Forlì-Cesena che si occupa di design per l’arredamento di interni. L’azienda si distingue per l’interesse per la lavorazione e il recupero dei materiali nella creazione dei propri prodotti realizzati a mano collocandosi all’interno di una lunga tradizione locale in questi settori. Il primo capitolo introduce il tema della localizzazione illustrandone le caratteristiche principali mettendo in luce gli aspetti tecnologici e culturali che ne fanno parte; di seguito verranno illustrate le fasi di un progetto di localizzazione e le figure professionali coinvolte in generale e nel caso specifico; infine, verranno fornite alcune informazioni su alcuni degli strumenti tecnici utilizzati. Nel secondo capitolo si affronterà un’analisi approfondita del testo di partenza e verranno presentate le tematiche relative alla teoria della traduzione rilevanti per il presente progetto. Il terzo capitolo tratterà in modo dettagliato le varie fasi del progetto; seguirà la presentazione del testo tradotto e infine il commento, in cui verranno esposti i problemi traduttivi, le difficoltà incontrate, i metodi e i procedimenti adottati.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.
Resumo:
Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.
Resumo:
Viene proposto un metodo completo di autocalibrazione degli intrinseci della telecamera utilizzando una singola vista, sfruttando i punti di fuga riconosciuti nell'immagine. La metodologia è suddivisa in quattro fasi fondamentali: estrazione dei segmenti dall’immagine, clusterizzazione dei segmenti, stima di un punto di fuga da ogni cluster e determinazione dei punti di fuga ortogonali. Viene fornita un nuova metodologia per la determinazione dei punti di fuga, dai cluster di segmenti identificati. Inoltre vengono proposti degli approcci euristici che favoriscono la selezione della terna corretta di punti di fuga ortogonali. L’approccio proposto è completamente modulare e sufficientemente flessibile per poter essere adattato a esigenze diverse. Le prestazioni dell’approccio vengono valutate confrontando altre due proposte alternative, a cui viene sottoposto il medesimo set di immagini, ognuna dotata di diverse caratteristiche. I risultati di questi esperimenti evidenziano la bontà dell’approccio proposto.
Resumo:
Nella prima parte di questo progetto di tesi, ho analizzato tutte le nozioni teoriche rilevanti in merito alla teoria della transizione. Il primo concetto condiviso in questa trattazione è quello di transizione. Nella parte finale del capitolo, il focus si sposta sul ruolo, in una generica transizione, delle nicchie. Lo strumento centrale in questa struttura sono gli esperimenti di transizione, i quali forniscono un approccio alternativo ai progetti di innovazione classica che sono incentrati nell'ottenimento di soluzioni a breve termine. Vi è dunque una forte relazione tra nicchia e sperimentazione. Infine la trattazione si concentra sul tema dello Strategic Niche Management. Nel secondo capitolo, analizzo il tema della sostenibilità inserita in un contesto universitario. Questa sezione si focalizza sulle strategie di alto livello richieste per dare avvio alla transizione universitaria verso la sostenibilità, identificando gli ostacoli e gli elementi portanti, e definendo una vision al fine di concretizzarla. Il capitolo guida, passo per passo, le università che tentano di mettere in pratica il proprio obiettivo e la vision di sviluppo sostenibile. Una delle problematiche principali per stimare gli sforzi verso la sostenibilità nelle università è costituita in modo particolare dagli strumenti di valutazione. Per questo motivo, è stata sviluppata la valutazione grafica della sostenibilità nell'università (GASU). Al fine di riassumere quanto detto fin qui ed avere un quadro generale più chiaro dell'organizzazione di un campus universitario che mira a diventare sostenibile, ho utilizzato lo strumento gestionale della SWOT Analysis. Negli ultimi due capitoli, infine, analizzo nel dettaglio il modello Green Office. La teorizzazione di questo modello e l'elaborazione dei 6 principi del Green Office sono state effettuate da rootAbility. Le seguenti pagine presentano 3 casi studio di come i 6 principi dei Green Office sono stati adattati alle 3 unità di sostenibilità guidate da studenti e supportate da staff qualificato. L'oggetto della trattazione sono i principali GO affermatisi nei Paesi Bassi. A seguito dell'introduzione del modello relativo al Green Office e dell'illustrazione degli esempi presi in esame, è stato sfruttato lo strumento della feasibility analysis al fine di giudicare se l'idea di business sia praticabile. Il mezzo con cui ho condotto l'analisi sotto riportata è un questionario relativo al modello di Green Office implementato, nel quale viene chiesto di valutare gli aspetti relativi alla organizational feasibility e alla financial feasibility. Infine nella sezione finale ho considerato i Green Office come fossero un unico movimento. L'analisi mira a considerare l'impatto globale del Green Office Movement nei sistemi universitari e come, a seguito del loro consolidarsi nella struttura accademica, possano divenire prassi comune. La struttura proposta contiene elementi sia da il SNM (Strategic Niche Management) che dal TE (Transition Experiment).
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.
Resumo:
L’elaborato di tesi, che rientra nell’ambito di un progetto di collaborazione tra l’equipe del laboratorio ICM “Silvio Cavalcanti”, coordinato dal professor Giordano, e il CVG (Computer Vision Group) coordinato dal professor Bevilacqua, mira alla messa a punto di un sistema di misura quantitativa di segnali fluorescenti, tramite l’elaborazione di immagini acquisite in microscopia ottica.