964 resultados para problema isoperimetrico serie di Fourier convergenza in L^2 identità di Parseval
Resumo:
La ricerca dottorale che ho sviluppato si propone di analizzare il percorso di valutazione della genitorialità recentemente delineato dai servizi sociali territoriali della provincia di Bologna attraverso la sperimentazione di strumenti per la diagnosi sociale, valutando gli esiti dell’applicazione, anche in confronto all’utilizzo di metodi tradizionali. Il progetto ha il suo fulcro tematico, nel qualificare le pratiche professionali, con il fine ultimo di giungere ad un percorso di diagnosi sociale scientificamente fondato. Il mio obbiettivo quindi non è stato analizzare in termini astratti e idealtipici le metodologie professionali di riferimento per i 32 operatori coinvolti, quanto piuttosto di formarli all’utilizzo di una serie di strumenti elaborati nelle fasi precedenti del progetto, e condurre una ricerca empirica su un numero, sufficientemente ampio, di “casi concreti” costituito da nuclei familiari in carico ai servizi sociali. Più precisamente l'ambito privilegiato d’analisi è stato individuato nel rapporto tra operatore ed utente, allo scopo di evidenziare pregi e difetti dell'utilizzo di strumenti professionali finalizzati alla diagnosi sociale. Inoltre va sottolineato che l’analisi della letteratura sul tema ha evidenziato l’esistenza di un numero molto limitato di studi empirici sulle metodologie di servizio sociale, condotti peraltro su un numero di casi e di variabili molto ristretto, e per lo più in territorio statunitense, dove il sistema di Welfare si caratterizza per una impostazione tale da rendere veramente difficile la comparazione con la realtà italiana. Quello a cui ho inteso pervenire non è un giudizio ultimo sull’efficacia di questa specifica metodologia tout-court, ma piuttosto analizzare, attraverso l’utilizzo di materiali quanti-qualitativi derivati dalla sperimentazione, quelle che sono le condizioni che si vengono a determinare quando, nel percorso di presa in carico sociale, vengono introdotti strumenti specifici, metodologia chiara e alto coinvolgimento delle componenti relazionali del processo: operatori, familiari e rete sociale allargata.
Resumo:
Questa tesi tratta della realizzazione e valutazione di un simulatore Web-Based i cui nodi sono connessi tramite Web Real Time Communication (WebRTC) e si testa la sua efficienza mediante la simulazione di un semplice modello di mobilità. Si espongono i principali concetti di simulazione e di WebRTC, fornendo le basi per una maggior comprensione del testo e delle scelte progettuali ed implementative. Si conclude con serie di test comparativi dell’applicativo mettendo in luce pregi e difetti di questo approccio alternativo alla simulazione.
Resumo:
Riassunto Il nostro viaggio attraverso la musica folk americana partirà dal un racconto della Grande Depressione, dello stato di indigenza nel quale versava la maggior parte della popolazione e attraverso le vicende e le canzoni del nonno della canzone di protesta: Woody Guthrie. Sottolineeremo come egli abbia influenzato successivamente tutta una serie di cantautori che si formarono con lui, attraverso i suoi scritti o i suoi pezzi. Vedremo dunque come un altro grande musicista, Pete Seeger lottò più volte contro la censura per dare risonanza a tante battaglie altrimenti inascoltate, come i movimenti per i diritti civili degli afroamericani e per la pace. Con le canzoni di Bob Dylan analizzeremo i movimenti giovanili e pacifisti contro la guerra nel Vietnam e i fermenti della beat generation. Considereremo con Bruce Springsteen i nuovi diseredati della recessione economica, la nuova ondata di nazionalismi, le censure successive agli attentati dell’ 11 Settembre 2001 e il nuovo ordine mondiale. La musica folk continuerà dunque a vivere grazie alla comunità che la rende viva e la fa circolare, ma soprattutto, grazie al passaggio di testimone tra i grandi artisti che l’hanno resa concretamente la voce dell’America.
Resumo:
In ambiente astrofsico i principali meccanismi di produzione di energia sono associati a cariche elettriche in moto non uniforme. In generale è noto che cariche libere emettono radiazione elettromagnetica solamente se accelerate:una carica stazionaria ha campo elettrico costante e campo magnetico nullo, quindi non irradia, e lo stesso si ha per una carica in moto uniforme (difatti basta porsi nel sistema di riferimento solidale ad essa perchè si ricada nel caso precedente). In questo contesto si inserisce la radiazione di Bremsstrahlung, caratteristica dei plasmi astrofsici molto caldi e dovuta all'interazione coulombiana tra gli ioni e gli elettroni liberi del gas ionizzato. Data la piccola massa dell'elettrone, durante l'interazione lo ione non viene accelerato in maniera apprezzabile, quindi è possibile trattare il problema come quello di cariche elettriche negative decelerate dal campo coulombiano stazionario di un mare di cariche positive. Non a caso in tedesco la parola Bremsstrahlung signifca radiazione di frenamento". L'emissione di Bremsstrahlung è detta anche free-free emission poichè l'elettrone perde energia passando da uno stato non legato a un altro stato non legato. Questo processo di radiazione avviene nel continuo, su un intervallo di frequenze che va dal radio ai raggi gamma. In astrofsica è il principale meccanismo di raffreddamento per i plasmi a temperature elevate: si osserva nelle regioni HII, sottoforma di emissione radio, ma anche nelle galactic hot-coronae, nelle stelle binarie X, nei dischi di accrescimento intorno alle stelle evolute e ai buchi neri, nel gas intergalattico degli ammassi di galassie e nelle atmosfere di gas caldo in cui sono immerse le galassie ellittiche, perlopiù sottoforma di emissione X. La trattazione del fenomeno sarà estesa anche al caso relativistico che, per esempio, trova applicazione nell'emissione dei ares solari e della componente elettronica dei raggi cosmici. Infine la radiazione di Bremsstrahlung, oltre a permettere, solamente mediante misure spettroscopiche, di ricavare la temperatura e la misura di emissione di una nube di plasma, consente di effettuare una vera e propria "mappatura" del campo gravitazionale dei sistemi che hanno gas caldo.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
L’anguilla europea, è una specie eurialina catadroma con un complesso ciclo biologico: l’area di riproduzione, unica, si trova molto distante da quella di distribuzione. La specie necessita di una gestione dello stock a fini conservazionistici. Il problema è europeo: lo stock è unico, distribuito in Europa e nell’Africa settentrionale, si riproduce in Atlantico ed è panmittico. C’è preoccupazione per il declino del reclutamento e delle catture di adulti. Lo scopo del progetto è di individuare possibili unità di stock nella penisola italiana. La ricerca è basata sullo studio degli otoliti mediante analisi morfometrica e microchimica. I contorni degli otoliti sono sottoposti ad analisi ellittica di Fourier per individuare eventuali gruppi. Gli otoliti sono stati levigati per effettuare: letture d’età, indagini microstrutturali al SEM delle fasi larvali, analisi microchimiche LA-ICP-MS del nucleo, studiarne l’origine e valutare l’ambiente di sviluppo. Le indagini morfometriche mostrano evidenti pattern ontogenetici, ma non legati ocorrelati alla località, sesso o anno di nascita. Le indagini microstrutturali hanno evidenziano l’alto contenuto organico nucleare, un pattern comune di crescita ed eventi chiave delle fasi larvali, con una media di 212 anelli giornalieri. La microchimica rivela che le larve si sviluppano in acque salate fino alla metamorfosi, poi migrano verso acque meno salate. Le analisi su campioni nati nello stesso anno, evidenziano due gruppi: individui di rimonta naturale e individui di ripopolamento. I profili nucleo bordo evidenziano la permanenza a salinità intermedie degli adulti. L’attività di ricerca si è dimostrata proficua dal punto di vista tecnico con la messa a punto di protocolli innovativi e con forti ricadute sulla riduzione dei tempi e costi d’analisi. Il debole segnale di possibili unità di stock andrà verificato in futuro mediante analisi più dettagliate discriminando meglio la storia di ogni singolo individuo.
Resumo:
La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.
Resumo:
La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.
Resumo:
In questa tesi si studiano alcune proprietà fondamentali delle funzioni Zeta e L associate ad una curva ellittica. In particolare, si dimostra la razionalità della funzione Zeta e l'ipotesi di Riemann per due famiglie specifiche di curve ellittiche. Si studia poi il problema dell'esistenza di un prolungamento analitico al piano complesso della funzione L di una curva ellittica con moltiplicazione complessa, attraverso l'analisi diretta di due casi particolari.
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.
Resumo:
Nella tesi viene svolto un lavoro di modellazione del protocollo MAC 802.15.4 Wireless Personal Area Network (WPAN), per reti di sensori; dopodiché esso viene sottoposto ad una serie di analisi energetiche attraverso simulazioni nell'ambiente OMNeT++. Numerosi sono i parametri che sono stati considerati per caratterizzare al meglio le analisi effettuate, nonché le diverse condizioni iniziali. Il profilo energetico ottenuto è stato messo a confronto con quello del protocollo 802.15.4m per TVWS. I dati ottenuti sono stati elaborati con un algoritmo power control con l'obiettivo di raggiungere la massima ottimizzazione energetica.