897 resultados para serie di Fourier serie di Fejér problema di Cauchy-Dirichlet equazione del calore


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le malattie trasmesse da zecche sono un importante problema sia per la salute animale che per quella umana e negli ultimi decenni hanno aumentato notevolmente la loro diffusione, in seguito ai cambiamenti climatici, che hanno permesso la distribuzione delle zecche in aree prima non interessate. Per tale motivo si è deciso di effettuare un’indagine sulla diffusione delle zecche e sui patogeni da loro trasmessi, mediante campionamenti sia a livello ambientale, sia su animali e umani infestati in quattro siti di tre parchi dell’Emilia Romagna, dove non risultavano precedenti segnalazioni, nelle province di Bologna e Ravenna, da Aprile a Ottobre 2010. In totale sono state raccolte 8212 zecche. Dall’ambiente sono state campionate 6734 larve, 1344 ninfe, 61 adulti; dagli animali e da persone sono stati raccolti 68 adulti e 5 ninfe appartenenti a diverse specie di Ixodidae. Sono state condotte analisi sull’abbondanza delle zecche nelle diverse aree di raccolta, in funzione del periodo di campionamento, della temperatura e dell’umidità relativa misurata a 5 cm dal suolo al momento del campionamento e della vegetazione. Su tutti gli individui adulti e su pool di ninfe e di larve, per un totale di 393 campioni, sono state condotte analisi di tipo molecolare per la ricerca di piroplasmi, Anaplasma phagocytophilum e Borrelia burgdorferi s.l. Attraverso la PCR e il sequenziamento, è emerso che il 7,6% dei campioni era positivo per piroplasmi, tra i quali è stata riscontrata anche la presenza delle specie zoonosiche Babesia EU1 e B. divergens. La real-time PCR eseguita solo sui campioni costituiti da ninfe e adulti ha evidenziato una prevalenza del 9,2% per A. phagocytophilum e del 21,6% per B. burgdorferi s.l. Su questi patogeni sono state quindi condotte analisi di tipo filogenetico. In alcuni campioni sono state riscontrate coinfezioni con combinazioni di due patogeni contemporaneamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’idea di creare un museo diffuso a scala urbana è dettata dalle grandi potenzialità che ha la città di Verucchio, sia in termini storico – culturali che paesaggistiche. L’intera città viene quindi considerata come oggetto di studio di progetto, ma a due scale differenti: una scala urbana nella sua interezza ed una riferita più precisamente alla nuova espansione di Pian del Monte. La prima cerca di soddisfare tutte quelle mancanze di collegamento o di valorizzazione dei percorsi o dei singoli manufatti che attualmente sono isolati dal contesto paesaggistico. L’idea di museo diffuso a scala urbana è giustificata proprio dalla volontà di non dare un’immagine settorizzata della storia, ma piuttosto dell’evolversi della città in tutte le sue parti. Si cerca quindi di dare un’idea storica di continua evoluzione e stratificazione fino ai giorni nostri e con i nostri interventi progettuali. La seconda, si riferisce allo studio dell’area di Pian del Monte, zona che ospitava l’antico insediamento abitativo villanoviano e poi etrusco. Proprio in quest’area cerchiamo di approfondire il tema del museo e parco archeologico all’interno del sistema urbano. L’obbiettivo principale del progetto di tesi è stato quello di riuscire a riconciliare due parti di città che allo stato attuale non dialogano più fra loro ma in modo indipendente ed isolato. Quindi il primo obbiettivo è stato quello di ricucire quella frattura creata col tempo che è presente oltrepassando le mura antiche ed entrando in Pian del Monte; si tratta perciò prima di tutto di cercare di dare una soluzione ad un problema a scala urbana e poi successivamente concentrarsi sui singoli elementi che compongono il progetto. I temi del progetto sono quindi rivolti al consolidamento della città nella sua interezza e non nell’addizione di più parti che creano un intero. Proprio per questo abbiamo cercato di ridare voce ai resti archeologici attraverso una musealizzazione puntuale e contemporaneamente dare importanza ad una zona che ospitava l’abitato villanoviano rendendola parte integrante della città. L’approccio tenuto è quello di un progetto di architettura per la città, volto a risolvere la frattura fra le due parti di città creando in Pian del Monte un centro alternativo a quello storico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha ad oggetto lo studio e l’approfondimento delle forme di promozione commerciale presenti in Rete caratterizzate, più che da una normale evoluzione, da continue metamorfosi che ridefiniscono ogni giorno il concetto di pubblicità. L’intento è quello di analizzare il quadro giuridico applicabile alla pubblicità via Web, a fronte della varità di forme e di modalità che essa può assumere. Nel lavoro vengono passate in rassegna le caratteristiche che differenziano la pubblicità commerciale on-line rispetto a quella tradizionale; tra le quali, particolare rilievo assume la capacità d’istaurare una relazione – diretta e non mediata – tra impresa e consumatore. Nel prosieguo viene affrontato il problema dell’individuazione, stante il carattere a-territoriale della Rete, della legge applicabile al web advertising, per poi passare ad una ricognizione delle norme europee ed italiane in materia, senza trascurare quelle emanate in sede di autodisciplina. Ampio spazio è dedicato, infine, all’esame delle diverse e più recenti tecniche di promozione pubblicitaria, di cui sono messi in evidenza gli aspetti tecnico-informatici, imprescindibili ai fini di una corretta valutazione del tema giuridico. In particolare, vengono approfonditi il servizio di posizionamento a pagamento offerto dai principali motori di ricerca (keywords advertising) e gli strumenti di tracciamento dei “comportamenti” on-line degli utenti, che consentono la realizzazione di campagne pubblicitarie mirate (on-line behavioural advertising). Il Web, infatti, non offre più soltanto la possibilità di superare barriere spaziali, linguistiche o temporali e di ampliare la propria sfera di notorietà, ma anche di raggiungere l’utente “interessato” e, pertanto, potenziale acquirente. Di queste nuove realtà pubblicitarie vengono vagliati gli aspetti più critici ed esaminata la disciplina giuridica eventualmente applicabile anche alla luce delle principali decisioni giurisprudenziali nazionali ed europee in materia, nonché delle esperienze giuridiche nord-americane e di tipo autoregolamentare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perché è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi tratta della fabbricazione e del funzionamento di transistors elettrochimici organici (OECTs) composti da fi�lm sottili di poly(3,4-ethylenedioxythiophene) disperso con polystyrenesulfonic acid, o PEDOT:PSS, oltre che del loro possibile utilizzo come sensori. La trattazione si apre con una panoramica sui polimeri conduttivi, siano essi puri o drogati, e sulle loro caratteristiche chimiche ed elettriche: diversi metodi di drogaggio consentono il loro utilizzo come semiconduttori. Tra questi polimeri, il PEDOT �e uno dei pi�u utilizzati poich�e presenta accessibilit�a d'uso e ottima stabilit�a nel suo stato drogato, pur risultando insolubile in acqua; per ovviare a questo problema lo si polimerizza con PSS. Le propriet�a di questo composto sono poi ampiamente discusse, soprattutto in ambito di applicazioni tecniche, per le quali �e neccessario che il polimero in soluzione sia depositato su un substrato. A questo scopo vengono presentate le principali techiche che consentono la deposizione, permettendo di creare fil�lm sottili di materiale da utilizzarsi, nell'ambito di questa tesi, come gate e canale dei transistors elettrochimici. A seguire viene esposta la struttura degli OECTs e spiegato il loro funzionamento, modellizzando i dispositivi con un semplice circuito elettrico. Il confronto dei meno noti OECTs con i meglio conosciuti transistors a eff�etto campo semplifi�ca la comprensione del funzionamento dei primi, i quali sono rilevanti ai fi�ni di questa trattazione per il loro possibile funzionamento come sensori. In seguito alla spiegazione teorica, vengono illustrati i metodi seguiti per la deposizione di �film sottili di PEDOT:PSS tramite Spin Coating e per la fabbricazione degli OECTs su cui sono state eff�ettuate le misure, le quali sono state scelte e presentate in base ai risultati gi�a ottenuti in letteratura e a seconda dei dati ritenuti necessari alla caratterizzazione del transistor elettrochimico nell'ottica di un suo possibile utilizzo come sensore. Perci�o sono state eseguite misure amperometriche in funzione delle tensioni di gate e di drain, alternatamente tenendo costante una e variando l'altra, oltre che in funzione della concentrazione di elettrolita, dell'area del canale e del tempo. In conclusione sono presentati i dati sperimentali ottenuti ed una loro analisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi della formula di Dupire, che permette di ottenere un'espressione della volatilità locale, nei modelli di Lévy esponenziali. Vengono studiati i modelli di mercato Merton, Kou e Variance Gamma dimostrando che quando si è off the money la volatilità locale tende ad infinito per il tempo di maturità delle opzioni che tende a zero. In particolare viene proposta una procedura di regolarizzazione tale per cui il processo di volatilità locale di Dupire ricrea i corretti prezzi delle opzioni anche quando si ha la presenza di salti. Infine tale risultato viene provato numericamente risolvendo il problema di Cauchy per i prezzi delle opzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vocabolario del potere fra intento etico-morale e tutela sociale. I lemmi dei Capitolari Carolingi nel Regnum Italicum (774-813), costituisce il risultato di una ricerca condotta sul lessico della legislazione carolingia promulgata per il Regno Italico dal momento della conquista dei Franchi sino alla morte di Carlomagno. L’analisi ha preso in esame tutti i lemmi, soprattutto sostantivi e aggettivi, riconducibili alla sfera etica e morale, e alla concezione della libertà della persona. Il lavoro si è giovato delle analisi più specifiche in merito ai concetti giuridico-istituzionali che fonti normative come quelle prese in esame portano inevitabilmente in primo piano. La ricerca, partita da una completa catalogazione dei lemmi, si è concentrata su quelli che maggiormente consentissero di valutare le interazioni fra la corte intellettuale dei primi carolingi – formata come noto da uomini di chiesa – e le caratteristiche di pensiero di quegli uomini, un pensiero sociale e istituzionale insieme. Il lavoro ha analizzato un lessico specifico per indagare come la concezione tradizionale della societas Christiana si esprimesse nella legislazione attraverso lemmi ed espressioni formulari peculiari: la scelta di questi da parte del Rex e della sua cerchia avrebbe indicato alla collettività una pacifica convivenza e definito contestualmente “l’intento ordinatore e pacificatore” del sovrano. L’analisi è stata condotta su un periodo breve ma assai significativo – un momento di frattura politica importante – per cogliere, proprio sfruttando la sovrapposizione e talvolta lo scontro fra i diversi usi di cancelleria del regno longobardo prima e carolingio poi, la volontarietà o meno da parte dei sovrani nell’uso di un lessico specifico. Questo diventa il problema centrale della tesi: tale lessico impone con la sua continuità d’uso modelli politici o invece è proprio un uso consapevole e strumentale di un determinato apparato lessicale che intende imporre alla società nuovi modelli di convivenza?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problema di Cauchy, teorema di dipendenza continua dai dati iniziali, teorema di dipendenza regolare dai dati e dai parametri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi tratteremo alcune applicazioni della teoria delle distribuzioni, specialmente di quelle temperate. Nei primi capitoli introdurremo i concetti fondamentali di questa teoria e cercheremo di fornire al lettore tutti gli strumenti necessari per affrontare l’argomento principale: la ricerca delle soluzioni fondamentali per un operatore lineare a coefficienti costanti e la risoluzione di problemi differenziali per essi. Infine applicheremo quanto studiato, all’operatore delle onde. Conclude la tesi un’appendice in cui verranno trattate le distribuzioni a simmetria radiale, utili per affrontare il problema di Cauchy per l’equazione delle onde.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present work belongs to the PRANA project, the first extensive field campaign of observation of atmospheric emission spectra covering the Far InfraRed spectral region, for more than two years. The principal deployed instrument is REFIR-PAD, a Fourier transform spectrometer used by us to study Antarctic cloud properties. A dataset covering the whole 2013 has been analyzed and, firstly, a selection of good quality spectra is performed, using, as thresholds, radiance values in few chosen spectral regions. These spectra are described in a synthetic way averaging radiances in selected intervals, converting them into BTs and finally considering the differences between each pair of them. A supervised feature selection algorithm is implemented with the purpose to select the features really informative about the presence, the phase and the type of cloud. Hence, training and test sets are collected, by means of Lidar quick-looks. The supervised classification step of the overall monthly datasets is performed using a SVM. On the base of this classification and with the help of Lidar observations, 29 non-precipitating ice cloud case studies are selected. A single spectrum, or at most an average over two or three spectra, is processed by means of the retrieval algorithm RT-RET, exploiting some main IR window channels, in order to extract cloud properties. Retrieved effective radii and optical depths are analyzed, to compare them with literature studies and to evaluate possible seasonal trends. Finally, retrieval output atmospheric profiles are used as inputs for simulations, assuming two different crystal habits, with the aim to examine our ability to reproduce radiances in the FIR. Substantial mis-estimations are found for FIR micro-windows: a high variability is observed in the spectral pattern of simulation deviations from measured spectra and an effort to link these deviations to cloud parameters has been performed.