369 resultados para spettro risolvente teorema di persson spettro essenziale oscillatori non commutativi


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

.NET Compiler Platform è un compilatore per i linguaggi C# e Visual Basic realizzato da Microsoft. L’innovazione apportata da tale strumento è l’introduzione di API che permettono di accedere al compilatore; in particolare, è possibile accedere alle strutture dati utilizzate al suo interno, quali simboli o AST, e controllare e/o modificare il processo di compilazione. Una parte di questo progetto, chiamato anche progetto Roslyn, è focalizzata sull’introduzione dello scripting per il linguaggio C#. In questa trattazione si è interessati a sperimentare le possibilità offerte da tale strumento nel campo dell’esecuzione dinamica di frammenti di codice. Gli obiettivi imposti si collocano nell’ambito della re-ingegnerizzazione e dello sviluppo di software. Tali obiettivi sono la re-implementazione dei filtri di selezione contenuti nel framework Phoenix, utilizzando le API di Roslyn per migliorarne le prestazioni, e la progettazione di un componente che realizzi una console per lo scripting C# dotata della possibilità di riferire dinamicamente librerie. Le API di compilazione si rivelano essere non propriamente adatte all’esecuzione immediata di frammenti di codice, nonostante ciò, è possibile, appoggiandosi alla reflection, utilizzarle per giungere a questo risultato. Lo scripting, invece, si rivela uno strumento dalle grandi potenzialità nel suddetto ambito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I semiconduttori organici presentano proprietà che consentono la produzione di dispositivi impensabili fino a pochi anni fa: sono flessibili, leggeri e robusti, ed inoltre facili ed economici da depositare. La loro capacità di rivelare direttamente la radiazione ionizzante, convertendola in segnale elettrico, li pone come ottimi candidati per una nuova generazione di rivelatori a stato solido per raggi X, utilizzabili in situazioni e luoghi prima inaccessibili a quelli inorganici, o addirittura comodamente indossabili. Tuttavia i fenomeni di fotogenerazione e raccolta di carica in questi materiali non sono ancora completamente compresi. Ottimali per lo studio di queste ed altre proprietà intrinseche sono le forme di impacchettamento a cristallo singolo. Questa tesi analizza e confronta i segnali elettrici di campioni di cristalli singoli di TIPS-pentacene quando esposti a flussi crescenti di radiazione visibile e di raggi X a diversi voltaggi, proponendo dei modelli per la loro interpretazione. Viene inoltre riportato un confronto con le stesse misure effettuate su un campione dello stesso materiale in forma di film sottile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato fornisce una introduzione al modello di Ising, utilizzato nello studio delle transizioni di fase tra la fase ferromagnetica e quella paramagnetica dei materiali. Nella prima parte viene trattato il modello unidimensionale, di cui viene esposta la soluzione esatta attraverso l'utilizzo delle matrici di trasferimento, dimostrando quindi l'inesistenza di una transizione di fase a temperature finite non nulle. Vengono calcolate le funzioni termodinamiche e se ne dimostra l'indipendenza dalle condizioni al contorno nel limite termodinamico.Viene proposta infine una spiegazione qualitativa del comportamento microscopico, attraverso la lunghezza di correlazione. Nella seconda parte viene trattato il caso a due dimensioni. Inizialmente viene determinata la temperatura critica per reticoli quadrati, attraverso il riconoscimento della presenza di una relazione di dualita tra l'espansione per alte e per basse temperature della funzione di partizione. Successivamente si fornisce la soluzione esatta attraverso una versione modificata del procedimento, originariamente ideato da L.Onsager, di cui e proposta una traccia della dimostrazione. Viene infine brevemente discussa l'importanza che questo risultato ebbe storicamente nella fisica delle transizioni di fase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sono stati studiati i fattori che influenzano l'utilizzo del buffer in un magazzino manuale. Per poter realizzare le analisi è stato realizzato un programma C# che simula la gestione del magazzino. Per ottimizzare l'assegnamento dei pallet alle location si è inoltre costruito un modello AMPL. L'obiettivo del modello è minimizzare la differenza tra le classi ottime dei codici in ingresso e i posti pallet ai quali questi vengono assegnati. Il programma C# oltre all'interfaccia con il risolutore AMPL Gurobi, deve interfacciarsi anche con il data base Access nel quale sono stati organizzati i dati necessari per l'analisi. Questi dati sono reali e relativi agli ingressi e alle uscite di un magazzino contenente materiale farmaceutico di due settimane di lavoro. Per facilitare e velocizzare lo studio le informazioni considerate sono quelle di due soli corridoi e non dell'intero magazzino. I risultati hanno evidenziato quattro fattori principali che influenzano la differenza tra un l'allocazione dei pallet in ingresso ad un magazzino. Questi elementi sono: costo di utilizzo del buffer, numero di location libere ad inizio simulazione, momento d'esecuzione del picking a magazzino e tipologia di location vute ad inizio della simulazione. Per ognuno di questi si è cercato, per quanto possibile, di individuare le implicazioni che quanto studiato può avere nella progettazione di un sistema di stoccaggio reale sia dal punto di vista logistico sia dal punto di vista economico. Non sempre le osservazioni reali alle quali si è arrivati hanno un risvolto pratico immediato, ma senza dubbio possono essere utili nello studio preliminare per la realizzazione di un sistema di stoccaggio. All'interno delle conclusioni sono state inserite anche possibili studi e approfondimenti futuri che possono essere eseguiti partendo dal progetto di tesi qui presentato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viviamo in un epoca di cambiamenti. Continuamente, giorno dopo giorno, il vecchio scompare per fare spazio al nuovo. La tecnologia permea sempre più in ogni aspetto della vita, conquistando le nostre abitudini, cambiando il nostro modo di vedere il mondo, e, in maniera inevitabile, il nostro modo di agire. L’essere umano ha da sempre cercato di concepire cose che ancora non ci sono, per cambiare la realtà e modellarla a suo piacimento. Si parte, quindi, da qualcosa che fin dalla nascita è dentro ognuno di noi, un desiderio che arde nell'animo umano, che si alimenta grazie al soffio dell’immaginazione e che non c’è modo di spegnere. L’innovazione porta novità. Resistere al cambiamento non è sempre facile, e se si cerca di ostacolarlo esso ti travolgerà. “Affrontare il cambiamento è come scalare una colata di fango giù per una collina” - esordisce in “The Innovator Dilemma”, Clayton M. Christensen - “Bisogna affrontare qualsiasi cosa per rimanere su di essa, e non appena ci si ferma per prendere fiato si viene seppelliti”. Si intuisce come il cambiamento tecnologico non solo sia di fondamentale evidenza nella vita di ognuno, ma come esso abbia cambiato e stia cambiando il modo di fare business. In questo umile lavoro si è voluto analizzare come certi tipi di innovazione abbiano il potere di cambiare tutto un sistema di riferimento sul quale prima l’impresa faceva affidamento. Sono le Disruptive Innovation – le innovazioni dirompenti – quelle innovazioni che ribaltano un modello di business, il modo di vedere un prodotto, la logica dietro a certe operations aziendali, che seppur sembrassero solide, si sgretolano scontrandosi con innovazioni così forti. Vi è poi una domanda critica a cui si è cercato di rispondere. Si può fare Disruptive Marketing? Alcuni esempi virtuosi ci mostrano come si possa attuare una strategia di questo genere, e come si possa “comprendere, creare, comunicare e distribuire valore” in modo innovativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo di questo elaborato è affrontare lo studio di luoghi geometrici piani partendo dagli esempi più semplici che gli studenti incontrano nel loro percorso scolastico, per poi passare a studiare alcune curve celebri che sono definite come luoghi geometrici. Le curve nell'elaborato vengono disegnate con l'ausilio di Geogebra, con il quale sono state preparate delle animazioni da mostrare agli studenti. Di alcuni luoghi si forniscono dapprima le equazioni parametriche e successivamente, attraverso il teorema di eliminazione e il software Singular, viene ricavata l'equazione cartesiana.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi si inserisce all’interno del progetto di ricerca LAUPER in cui sono coinvolte le sezioni INFN di Ferrara e Bologna. Il progetto LAUPER, acronimo per LAUe-PEak Radiotherapy, ha come scopo lo studio di fattibilità di un prototipo di lente di Laue in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV per possibili applicazioni in ambito radioterapico. Sfruttando fasci di raggi X, caratterizzati da energie inferiori a quelle che contraddistinguono le usuali tecniche radioterapiche e focalizzati mediante una lente di Laue, si cerca di ottimizzare il rapporto fra la dose sul target tumorale e la dose sui tessuti sani. Questa tesi, nello specifico, descrive i dati ottenuti dai primi test effettuati con due prototipi di lente di Laue, caratterizzati da un differente numero di cristalli e da una loro diversa disposizione sulla lente. Dall’analisi delle misure effettuate si evince come effettivamente i prototipi siano in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV. Tuttavia uno dei due prototipi ha evidenziato delle problematiche relative alla diffrazione causata dalla struttura di supporto dei cristalli, che non è stato possibile schermare adeguatamente. I prossimi passi del progetto LAUPER consistono quindi nella risoluzione di questo problema con la realizzazione di nuovi prototipi, caratterizzati da un diverso tipo di supporto. Con quest’ultimi verranno anche effettuati test dosimetrici in modo da costruire le curve di dose in funzione della profondità in materiali tessuto-equivalenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito delle telecomunicazioni risulta di notevole rilievo la tecnologia ad onde convogliate, definita Power-Line Communication (PLC), che permette la trasmissione di dati sfruttando la rete elettrica come mezzo di trasmissione. Essa rappresenta una delle tecnologie promettenti per quanto concerne la fornitura di servizi come l’accesso ad Internet, alla rete telefonica e al telecontrollo di apparecchi sempre più sofisticati. Al fine di rendere possibile sia la trasmissione di potenza (alla frequenza di 50 Hz per l’Italia) che di altri segnali dati (su bande a frequenza maggiore) saranno necessarie tecniche di modulazione avanzata, che però non rappresentano un argomento trattato a fondo in questa tesi. Lo sviluppo tecnologico degli ultimi anni ha permesso una notevole diffusione delle PLC soprattutto in applicazioni domestiche, grazie ai prezzi molto contenuti in parallelo alle ottime prestazioni, soprattutto nell’automazione. Obbiettivo dell’elaborato risulta la rilevazione della risposta impulsiva in ambienti Power-Line di tipo Narrowband (a banda stretta), immettendo in rete sequenze di tipo casuale o pseudo-casuale, queste ultime definite Pseudo-Noise (PN); esse infatti hanno particolari proprietà che renderanno possibile il raggiungimento dello scopo prefissato. Lo strumento fondamentale per le misurazioni sul campo effettuate risulta l’Analog Discovery (Digilent ne è il produttore), utilizzato non solo come generatore di forme d’onda in ingresso ma anche come oscilloscopio per l’analisi del segnale ricevuto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La valutazione strumentale del cammino è solitamente svolta chiedendo ai soggetti semplicemente di camminare (ST). Tale condizione non rappresenta la quotidianità. Infatti, nella vita di tutti i giorni la locomozione richiede di adattarsi alle necessità individuali e il coinvolgimento di attività cognitive. I paradigmi di Dual-Task (DT) sono utilizzati per valutare i cambiamenti nella strategia di controllo del cammino in situazioni di vita quotidiana. In particolare, gli indici di performance, di variabilità e di stabilità, utilizzati nella valutazione del controllo motorio, potrebbero essere utili per valutare le interferenze cognitive durante il cammino. L’obiettivo del lavoro è di valutare come tali indici cambiano durante il Dual-Task. Sono stati reclutati 16 studenti, giovani e sani, della Facoltà di Ingegneria Biomedica di Cesena, ai quali è stato chiesto di compiere un cammino rettilineo di 250 m, senza ostacoli, all’aperto, in due condizioni: svolgendo la sola attività di cammino (ST); aggiungendo al precedente task, una sottrazione consecutiva di 7 ad alta voce, partendo da un numero casuale (DT). Tramite tre sensori inerziali tri-assiali, posti sul tronco (L5) e sulle caviglie, sono stati acquisiti i segnali di accelerazione e velocità angolare. Dopo aver calcolato, a partire da tali dati, indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test), di variabilità (Standard Deviation, Coefficient of Variation, Index of the Variance, Nonstationary Index, Poincare 4 Plots) e di stabilità (Harmonic Ratio e Index of Harmonicity), nelle due condizioni (ST e DT), è stata eseguita un’analisi statistica tra i due task. Le analisi statistiche condotte su tali indici hanno evidenziato che il DT influenza prevalentemente gli indici di performance (numero di passi, cadence, velocità e tempo di esecuzione del test) e in grado minore gli indici di variabilità e stabilità.