999 resultados para sostenibilità,sostenibilità digitale,greenIoT,strumenti interattivi multimediali
Resumo:
In questo lavoro si affronta il tema della rilevazione fotometrica di esopianeti in transito attraverso la tecnica della fotometria differenziale e l'impiego di piccoli telescopi commerciali. Dopo un'introduzione sull'attuale stato della popolazione di esopianeti, verranno analizzati i sistemi extrasolari transitanti, da cui è possibile ricavare grandezze orbitali e fisiche che nessun altro metodo, attualmente, è in grado di garantire. Nella seconda parte verranno affrontate le problematiche relative alla rilevazione fotometrica dei transiti, sviluppando una tecnica di acquisizione e riduzione dei dati semplice, veloce e che possa allo stesso tempo garantire la precisione richiesta, di almeno 0.002 magnitudini. Questa verrà messa alla prova su due esopianeti che soddisfano le richieste di precisione sviluppate nel testo. Verrà dimostrato che con uno strumento da 0.25 m e una camera CCD commerciale, da cieli affetti da moderato inquinamento luminoso, è possibile ottenere curve di luce con una precisione dell'ordine di 0.001 magnitudini per astri con magnitudini comprese tra 8 e 13, comparabili con le accuratezze di strumenti di taglia professionale. Tale precisione è sufficiente per rilevare pianeti gioviani caldi e persino pianeti terrestri in transito attorno a stelle di classe M e dare un aiuto importante alla ricerca di punta. Questo verrà dimostrato presentando la sessione fotometrica con cui è stato scoperto il transito dell'esopianeta HD17156 b, il primo rilevato da strumentazione amatoriale. Con tecniche di ripresa simultanea attraverso setup identici è possibile aumentare la precisione di un fattore √N, dove N è il numero di telescopi impiegati in una sessione fotometrica, supposti raggiungere la stessa precisione. Tre strumenti come quello utilizzato nelle sessioni presentate nel testo sono sufficienti per garantire un campionamento temporale di almeno 0.13 dati/minuto e una precisione di 0.0006 magnitudini, ovvero di 500 ppm, non molto distante dal limite di 200 ppm attualmente raggiunto dai più grandi telescopi terrestri.
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
In questa tesi sono presentate la misura e la dimensione di Hausdorff, gli strumenti matematici che permettono di descrivere e analizzare alcune delle più importanti proprietà degli insiemi frattali. Inoltre viene introdotto il carattere di autosimilarità, comune a questi insiemi, e vengono mostrati alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, la curva di Koch, l'insieme di Mandelbrot e gli insiemi di Julia. Di quest'ultimi sono presenti immagini ottenute tramite un codice Matlab.
Resumo:
In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).
Resumo:
Progetto di tesi svolto in azienda. Studio dei principali concetti di Business Intelligence (BI) e degli strumenti per la BI. Confronto tra i principali vendor nel mercato dell'analisi dei dati e della Business Intelligence. Studio e reigegnerizzazione di un modello per l'analisi economico finanziaria dei fornitori/clienti di un'azienda. Realizzazione di un prototipo del modello utilizzando un nuovo strumento per la reportistica: Tableau. Il prototipo si basa su dati economici finanziari estratti da banche dati online e forniti dall'azienda cliente. Implementazione finale del database e di un flusso automatico per la riclassificazione dei dati di bilancio.
Resumo:
La tesi espone il caso della Valve Corporation, una azienda produttrice e distributrice di Videogiochi. Questa azienda, leader nel suo settore, ha adottato una organizzazione di tipo "flat" ed ha ideato particolari e innovative soluzioni per la produzione dei suoi software. Ha inoltre sviluppato una piattaforma di distribuzione digitale per la vendita online di Videogiochi.
Resumo:
Im Rahmen dieser Arbeit wurden unterschiedliche Palladium-katalysierte Kreuzkupplungsreaktionen untersucht. Ein besonderes Augenmerk wurde dabei auf die Suzuki-Miyaura-Reaktion gelegt. Unter anderem aufgrund der langen Reaktionszeiten und der zweiphasigen Bedingungen ist diese Reaktionsklasse nur sehr schwer als kontinuierlicher Prozess zu etablieren. Vielen dieser Ansätze ist jedoch zu eigen, dass der große Vorteil der Mikroprozesstechnik, eine überlegene Kontrolle von Temperatur und Stofftransport, kaum ausgeschöpft wird. An diesem Punkt setzt diese Arbeit von technischer aus Seite an. Der zweite Schwerpunkt der Arbeit sind die prinzipiellen Untersuchungen an kontinuierlichen Flüssig-Flüssig-Zwei-Phasen-Reaktionen. Im Zuge des DBU-finanzierten Transkat-Projektes wurden hierbei anhand einfacher Veresterungsreaktionen grundlegende Kenntnisse zu Stofftransport, Grenzflächen und Phasentrennung innerhalb mikrostrukturierter Systeme gesammelt. Dank speziell angefertigter Glasmikroreaktoren von der Firma mikroglas chemtech GmbH war eine genaue optische und digitale Charakterisierung der Phasengrenzflächen möglich. Ein wichtiges Ergebnis war darüber hinaus, dass ionische Flüssigkeiten, als eigenständige Phasen verwendet, enorm zum Massentransfer und somit zur Reaktionsgeschwindigkeit beitragen können.
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
La definizione dell’ordinamento dell’Unione come ordinamento costituzionale è centrale, ma resta frammentata. Per restituirle sistematicità è importante individuare un principio sul quale poggiarne il consolidamento. Per questo si è scelto di esaminare il principio di non discriminazione attraverso l’analisi della giurisprudenza, con l’obiettivo di verificare se questo principio è parte fondamentale dell’identità costituzionale dell’Unione Europea. Nella prima parte della tesi si analizza la struttura del giudizio sulla discriminazione davanti alla CGUE e davanti alla CEDU, mettendo in evidenza come la struttura ricordi sempre di più quella del giudizio di costituzionalità. Nella seconda parte ci si concentra sul contributo dato dal principio di non discriminazione all’identità costituzionale dell’Unione Europea attraverso la lotta contro specifiche tipologie di discriminazione. Poiché i motivi di discriminazione sono molto numerosi, si è stabilito di esaminare quei motivi che sono regolati dal diritto derivato. Per questo la seconda parte dell’analisi si è concentrata sulle discriminazioni a motivo della nazionalità (dir. 2004/38/CE), della razza (dir. 2000/43/CE), del genere (dir. 2006/54/CE, dir. 2004/113/CE) dell’età, disabilità, religione ed orientamento sessuale (dir. 2000/78/CE). Dall’analisi della giurisprudenza e del diritto derivato che ne dà attuazione è possibile comprendere che questo principio, oltre ad essere sostenuto da un vero e proprio giudizio di legittimità costituzionale (il rinvio pregiudiziale), ha gli strumenti necessari a permetterne lo sviluppo tenendo conto delle identità costituzionali degli stati membri e può aiutare ad offrire delle risposte rispetto a uno dei problemi fondamentali inerenti all’efficacia del diritto dell’Unione Europea: la tensione fra il principio di attribuzione e la dottrina degli effetti diretti. Le conclusioni di questo lavoro portano a sostenere che è possibile individuare una giurisprudenza della Corte che, attraverso alcuni passaggi fondamentali (le sentenze Mangold, Kucukdeveci, Hay, Deckmyn e Zambrano), definisce il principio di non discriminazione come principio fondamentale, e costituzionale, del diritto dell’Unione Europea.
Resumo:
La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.
Resumo:
La presente tesi si propone di fornire un breve compendio sulla teoria dei complessi casuali, ramo di recente sviluppo della topologia algebrica applicata. Nell'illustrare i risultati più significativi ottenuti in tale teoria, si è voluto enfatizzare le modalità che permettono di affrontare con strumenti probabilistici lo studio delle proprietà topologiche ed algebriche dei complessi casuali.
Resumo:
Questa tesi nasce con lo scopo di studiare alcuni tratti dello sviluppo della teoria musicale occidentale, con particolare attenzione agli aspetti matematici che questa concerne. Nell’ultima parte della tesi si è cercato di confrontare, da un punto di vista qualitativo, diversi temperamenti equabili, attraverso alcuni strumenti matematici ed informatici.
Resumo:
In questa tesi tratteremo alcune applicazioni della teoria delle distribuzioni, specialmente di quelle temperate. Nei primi capitoli introdurremo i concetti fondamentali di questa teoria e cercheremo di fornire al lettore tutti gli strumenti necessari per affrontare l’argomento principale: la ricerca delle soluzioni fondamentali per un operatore lineare a coefficienti costanti e la risoluzione di problemi differenziali per essi. Infine applicheremo quanto studiato, all’operatore delle onde. Conclude la tesi un’appendice in cui verranno trattate le distribuzioni a simmetria radiale, utili per affrontare il problema di Cauchy per l’equazione delle onde.
Resumo:
L'obiettivo di questo elaborato è quindi quello di progettare e realizzare un editor grafico per la modellazione di oggetti tridimensionali, di consentire ad un utente di costruire scene complesse curandone il rendering. Il progetto è stato realizzato facendo uso del linguaggio C++ e degli strumenti messi a disposizione dalle librerie OpenGL
Resumo:
Il presente lavoro è inserito nel contesto di applicazioni che riguardano la pianificazione e gestione delle emergenze umanitarie. Gli aspetti che si sono voluti mettere in evidenza sono due. Da un lato l'importanza di conoscere le potenzialità dei dati che si hanno di fronte per poterli sfruttare al meglio. Dall'altro l'esigenza di creare prodotti che siano facilmente consultabili da parte dell'utente utilizzando due diverse tecniche per comprenderne le peculiarità. Gli strumenti che hanno permesso il presente studio sono stati tre: i principi del telerilevamento, il GIS e l'analisi di Change Detection.