469 resultados para Approssimazione, interpolazione, polinomi,funzioni,regolarizzazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alla base dell'elaborato vi è uno studio geometrico differenziale del Taijitu ed in particolare della curva centrale presente nel simbolo; il tutto ripercorrendo cronologicamente ed in termini matematici il cambiamento che il simbolo ha subito nel corso del tempo. Tale studio è consistito, implementando un programma Matlab, nell'approssimazione mediante curve di Bézier, seguita da osservazioni sul grado delle curve trovate e sulla loro differenziabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente ricerca ha un duplice obiettivo. Primo, individuare i modi in cui lingue e identità culturali diverse sono state rappresentate al cinema. Secondo, identificare le diverse strade imboccate dai professionisti del doppiaggio italiano quando si trovano a confrontarsi con un film in cui si parlano più lingue. La ricerca propone un approccio multidisciplinare che combina i contributi teorici sviluppati nel campo degli studi di traduzione audiovisiva con le modalità di analisi più comunemente utilizzate dalla semiotica del cinema. L'analisi si basa su un campione di 224 film multilingue prodotti dall'inizio degli anni Trenta alla fine degli anni Duemila. Particolare attenzione viene indirizzata al quadro teorico all'interno del quale viene interpretato il ruolo che il multilinguismo assume al cinema. Vengono identificate tre funzioni principali: conflitto, confusione e resa realistica. Un altro elemento chiave nell'analisi è costituito dal genere cinematografico prevalente a cui è possibile ricondurre ciascuno dei film selezionati. Sono individuati tre generi principali: il film drammatico, la commedia e il thriller. Nel film drammatico il multilinguismo agisce come un veicolo che produce e accentua il conflitto, mentre nella commedia esso di solito diventa un dispositivo comico che crea confusione e umorismo. Nel cinema thriller, invece, il multilinguismo funziona essenzialmente come un veicolo di suspense. Per quanto riguarda le soluzioni traduttive adottate nel doppiaggio italiano del cinema multilingue, sono rilevate tre macro-strategie: la conservazione, la neutralizzazione e la riduzione dell'originale dimensione multilingue. Ciascuna di queste tre strategie è passata a vaglio critico. Se nel primo caso si tratta di un tentativo di riprodurre fedelmente le originali situazioni multilingue rappresentate nel film, negli altri due casi si tratta di soluzioni che risentono fortemente delle specificità del doppiaggio come modalità di traduzione degli audiovisivi (fattori ideologici ed economici, nonché il problema tecnico dell'armonizzazione delle voci per i personaggi bilingue).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi intende offrire una ricostruzione sistematica della disciplina applicabile agli amministratori deleganti di S.p.A. post riforma del 2003, attraverso una analisi della disciplina della delega, dei poteri, dei doveri e della responsabilità applicabili a tali amministratori. Il lavoro analizza, in primis, la disciplina della delega di funzioni amministrative ante e post riforma del 2003, evidenziando gli aspetti di continuità e discontinuità tra i due regimi. In secondo luogo, procede a una descrizione analitica dei poteri e dei doveri previsti in capo agli amministratori deleganti post riforma, per determinarne il contenuto e l'estensione. Infine, analizza le responsabilità degli amministratori deleganti per inadempimento dei doveri previsti a loro carico, tentando di dimostrare che la riforma ha attenuato il regime di responsabilità applicabile a tali amministratori attraverso una migliore distinzione del ruolo di tali soggetti rispetto a quello degli amministratori delegati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro mira a una ricostruzione della condizione giuridica del fondo comune di investimento, definito come “patrimonio autonomo e distinto”, su cui il legislatore non ha preso alcuna posizione espressa sul piano della titolarità, lasciando all’interprete il relativo (e tormentato) compito. A tal fine, l’esame critico della disciplina, alla luce di ulteriori forme di separazione patrimoniale rinvenibili nell’ordinamento giuridico, richiede un approccio metodologico teso sì a una ricostruzione in retrospettiva della questione ma anche a una sua analisi sistematica. La prima parte prende avvio dall’analisi della disciplina dei fondi comuni di investimento e della gestione collettiva del risparmio, ripercorrendo i tratti salienti della normativa al fine di acclararne la ratio. Rifuggendo da una redazione meramente compilativa, tale analisi risulta necessaria ai fini dell’esame degli aspetti problematici concernenti la natura giuridica dei fondi comuni di investimento, che non può essere avulso dal relativo contesto normativo. La seconda parte è dedicata al tema della qualificazione giuridica del fondo e della relativa titolarità alla luce della risalente dottrina, dell’evoluzione normativa e della giurisprudenza pronunciatasi sul punto. Sotto questo profilo, la prospettiva di indagine mira ad approfondire alcuni degli spunti emergenti dalle riflessioni teoriche concernenti la natura e la titolarità del fondo, avendo riguardo non solo alla classiche categorie civilistiche ma anche alla reale essenza della struttura e della disciplina dei fondi comuni di investimento e alle specifiche finalità di tutela degli interessi degli investitori perseguite dalla disciplina. Seguendo questo percorso, l’ultima parte volge uno sguardo doveroso alle tematiche concernenti le funzioni della separazione dei patrimoni nell'ambito dei mercati finanziari e del diritto positivo, senza pretermettere le categorie civilistiche, di diritto interno e di diritto straniero, sottese alle fattispecie considerate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi compilativa prende in esame la cartilagine, partendo dalla composizione dei suoi diversi tipi rappresentati nel corpo umano e delle funzioni qui svolte, per descrivere i metodi utilizzati per riprodurla artificialmente mediante cellule staminali, fattori di crescita e scaffold dedicati coltivati in ambiente controllato. La cartilagine è un tessuto molto particolare perché, diversamente dagli altri tessuti, non possiede una rete di capillari e quindi riceve un limitati apporto di ossigeno e sostanze nutritive, che spiega la sua poverissima capacità intrinseca di riparazione. La cartilagine è però un tessuto soggetto a numerosi stress di vario tipo e quindi è soggetta a traumi che possono essere di natura sportiva o accidentale (soprattutto la cartilagine di tipo articolare) ed è anche colpita da malattie degenerative. Questo ha stimolato gli studi che intendono ingegnerizzare un tessuto artificiale in grado di aumentare la capacità di riparare la zona colpita. In quest’ottica, vengono attivamente condotti esperimenti in grado di definire protocolli che inducano cellule staminali al differenziamento in cellule di tipo cartilagineo. Tali cellule, seminate su supporti (scaffolds) 3D biocompatibili di diversa natura, naturali o sintetici, eventualmente bioattivi, possono essere coltivate in ambienti dedicati, detti bioreattori, che utilizzino stimoli fisici (p. es. vibrazionali, microgravità, ultrasonici, regolazione della tensione di ossigeno, sforzi di taglio, compressione dinamica e compressione idrostatica ciclica) che si sono dimostrati utili per indurre l’appropriato fenotipo cellulare, valutabile attraverso una batteria di approcci di misura morfologica e funzionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi presenta alcuni aspetti dell'analisi convessa, in spazi vettoriali topologici, indirizzati allo studio di problemi generali di minimizzazione. Dai risultati geometrici dei teoremi di Hahn-Banach, attraverso la descrizione di proprietà fondamentali delle funzioni convesse e del sottodifferenziale, viene descritta la dualità di Fenchel-Moreau, e poi applicata a problemi generali di Ottimizzazione convessa, sotto forma prima di problema primale-duale, e poi come rapporto tra i punti di sella della Lagrangiana e le soluzioni della funzione da minimizzare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha lo scopo di fornire una panoramica generale sulle curve ellittiche e il loro utilizzo nella crittografia moderna. L'ultima parte è invece focalizzata a descrivere uno specifico sistema per lo scambio sicuro di messaggi: la crittografia basata sull'identità. Quest'ultima utilizza uno strumento molto interessante, il pairing di Weil, che sarà introdotto nel contesto della teoria dei divisori di funzioni razionali sulle curve ellittiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce in un progetto di ricerca fra il gruppo di Matematica della Visione del Prof. Ferri e CA-MI S.r.l. volto a progettare un sistema di recupero di immagini mediante il quale un dermatologo potrà acquisire l’immagine di una lesione e recuperare da un database classificato le immagini più somiglianti. Il concetto stesso di “somiglianza” è formalmente realizzato da una parte dell’omologia persistente (funzioni di taglia). Questa tesi utilizza tali metodi al fine di ottenere una combinazione ottimale dei diversi classificatori che si ottengono utilizzando la modularità intrinseca nella teoria. A questo scopo vengono impiegati due modelli e diversi metodi numerici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.