901 resultados para interpolazione curve piane punti grassi sistemi lineari


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questa tesi presenta un metodo generale per la costruzione di curve spline generalizzate di interpolazione locale. Costruiremo quest'ultime miscelando polinomi interpolanti generalizzati a blending function generalizzate. Verrano inoltre verificate sperimentalmente alcune delle proprietà di queste curve.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questa tesi sono stati descritti i principali metodi numerici per la risoluzione di sistemi non lineari. Tali metodi sono stati analizzati sia dal punto di vista teorico (analisi di convergenza locale) che pratico (algoritmo e implementazione).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La progettazione del sistema di impermeabilizzazione di una generica copertura dipende da molti fattori: è fondamentale sia la scelta della stratigrafia, sia la scelta del materiale del manto impermeabile poiché non esistono soluzioni assolute ma solo soluzioni ottimali per ogni caso preso in esame. La progettazione della stratigrafia deve tenere conto della destinazione d’uso della copertura e del clima in cui è situato l’edificio, inoltre deve essere garantita una certa traspirabilità in modo da mantenere salubri gli ambienti sottostanti. Abbiamo visto come sia fondamentale il progetto delle soluzioni di dettaglio, dai raccordi verticali al fissaggio dei pannelli solare, dal raccordo dei bocchettoni di scarico alla sovrapposizione dei teli, tutte soluzioni che devono adeguatamente essere studiate e correttamente posate in opera. Una corretta posa in opera infatti permette la corretta realizzazione della fase di progetto. In questo elaborato ci siamo concentrati nel descrivere il più possibile la corretta esecuzione delle soluzioni di dettaglio, sottolineando, molte volte, quanto l’impermeabilizzazione dei punti singolari sia fondamentale e quanto sia importante supervisionare in cantiere la loro corretta esecuzione. In conclusione possiamo dire che una corretta soluzione progettuale è inutile se non è supportata da una corretta posa in opera della stessa e viceversa, quindi per realizzare una buona impermeabilizzazione sono fondamentali sia le fasi di studio progettuali che le fasi di lavoro in cantiere.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Con questa tesi di laurea si vogliono analizzare le possibili cause e motivazioni e le molteplici soluzioni di fenomeni presenti sia in ambito domestico sia in ambito industriale e riguardanti i sistemi di protezione per i guasti verso terra. Le problematiche analizzate, come si vedrà, sono sempre più tematiche di attualità e questo a causa del sempre maggiore utilizzo di elettronica di potenza, convertitori, inverter, computer e controlli elettronici in generale. Se da un lato questi carichi sono sempre più sensibili ad interruzioni o anomalie nella tensione ai loro capi, d’altro canto spesso essi stessi sono tra i colpevoli delle anomalie stesse. In un primo momento si vedrà un fenomeno molto comune e conosciuto che è lo scatto intempestivo del differenziale che può causare danni di una certa entità. In una seconda parte saranno poi analizzate altre problematicità legate all’interruttore differenziale ed ai sistemi di terra, in particolare per quanto riguarda il loro funzionamento nel caso di correnti di guasto non perfettamente sinusoidali o totalmente non sinusoidali. La non sinusoidalità, originata prevalentemente dai carichi non lineari, oltre a dare le problematiche ben conosciute sia a livello di rete sia a livello dei carichi collegati (aumenti delle perdite, malfunzionamenti, sovraccarico del conduttore di neutro) dà distorsione della corrente (in questo caso di quella di guasto a terra) modificando sia il comportamento del differenziale in caso di guasto (ad esempio mancato intervento dell’interruttore con i conseguenti pericoli per l’essere umano) sia le curve di sicurezza. Per procedere ad un’analisi più dettagliata delle non idealità nel funzionamento nell’interruttore automatico differenziale (sia per quanto riguarda lo scatto intempestivo sia per quanto riguarda altre problematiche) è necessario conoscerne in maniera adeguata sia la struttura sia il principio di funzionamento ed anche le diverse tipologie esistenti sul mercato.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An amperometric glucose biosensor was developed using an anionic clay matrix (LDH) as enzyme support. The enzyme glucose oxidase (GOx) was immobilized on a layered double hydroxide Ni/Al-NO3 LDH during the electrosynthesis, which was followed by crosslinking with glutaraldehyde (GA) vapours or with GA and bovine serum albumin (GABSA) to avoid the enzyme release. The electrochemical reaction was carried out potentiostatically, at -0.9V vs. SCE, using a rotating disc Pt electrode to assure homogeneity of the electrodeposition suspension, containing GOx, Ni(NO3)2 and Al(NO3)3 in 0.3 M KNO3. The mechanism responsible of the LDH electrodeposition involves the precipitation of the LDH due to the increase of pH at the surface of the electrode, following the cathodic reduction of nitrates. The Pt surface modified with the Ni/Al-NO3 LDH shows a much reduced noise, giving rise to a better signal to noise ratio for the currents relative to H2O2 oxidation, and a linear range for H2O2 determination wider than the one observed for bare Pt electrodes. We pointed out the performances of the biosensor in terms of sensitivity to glucose, calculated from the slope of the linear part of the calibration curve for enzimatically produced H2O2; the sensitivity was dependent on parameters related to the electrodeposition in addition to working conditions. In order to optimise the glucose biosensor performances, with a reduced number of experimental runs, we applied an experimental design. A first screening was performed considering the following variables: deposition time (30 - 120 s), enzyme concentration (0.5 - 3.0 mg/mL), Ni/Al molar ratio (3:1 or 2:1) of the electrodeposition solution at a total metals concentration of 0.03 M and pH of the working buffer solution (5.5-7.0). On the basis of the results from this screening, a full factorial design was carried out, taking into account only enzyme concentration and Ni/Al molar ratio of the electrosynthesis solution. A full factorial design was performed to study linear interactions between factors and their quadratic effects and the optimal setup was evaluated by the isoresponse curves. The significant factors were: enzyme concentration (linear and quadratic terms) and the interaction between enzyme concentration and Ni/Al molar ratio. Since the major obstacle for application of amperometric glucose biosensors is the interference signal resulting from other electro-oxidizable species present in the real matrices, such as ascorbate (AA), the use of different permselective membranes on Pt-LDHGOx modified electrode was discussed with the aim of improving biosensor selectivity and stability. Conventional membranes obtained using Nafion, glutaraldehyde (GA) vapours, GA-BSA were tested together with more innovative materials like palladium hexacyanoferrate (PdHCF) and titania hydrogels. Particular attention has been devoted to hydrogels, because they possess some attractive features, which are generally considered to favour biosensor materials biocompatibility and, consequently, the functional enzyme stability. The Pt-LDH-GOx-PdHCF hydrogel biosensor presented an anti-interferant ability so that to be applied for an accurate glucose analysis in blood. To further improve the biosensor selectivity, protective membranes containing horseradish peroxidase (HRP) were also investigated with the aim of oxidising the interferants before they reach the electrode surface. In such a case glucose determination was also accomplished in real matrices with high AA content. Furthermore, the application of a LDH containing nickel in the oxidised state was performed not only as a support for the enzyme, but also as anti-interferant sistem. The result is very promising and it could be the starting point for further applications in the field of amperometric biosensors; the study could be extended to other oxidase enzymes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di ricerca esplora il panorama dell’efficienza energetica dei sistemi acquedottistici, soffermandosi a considerare possibili indicatori che possano valutarla in maniera corretta e completa, in particolare nei confronti della presenza di perdite in rete. Si prendono in considerazione con maggiore attenzione, tra tutte le strategie per aumentare l’efficienza energetica, quelle che contemporaneamente producono anche risparmi idrici, come la riduzione della pressione e la ricerca attiva delle perdite . Dopo un inquadramento internazionale, sono stati analizzati mediante mappe tematiche di intensità energetica, i consumi energetici specifici sui sistemi acquedottistici della regione Emilia Romagna per gli anni 2006 e 2007, si è passati ad una analisi critica degli indicatori attualmente in uso. Inoltre per casi di studio sintetici e tutti i casi di studio proposti, si sono valutate curve di relazione tra percentuale di perdita idrica e aumento del consumo energetico, in grado di dare indicazioni su come ciascun sistema reagisce, in termini di aumento dell’energia consumata, all’aumentare del livello di perdita. Questa relazione appare fortemente influenzata da fattori come la modalità di pompaggio, la posizione delle rotture sulla rete e la scabrezza delle condotte. E’ emersa la necessità solo poter analizzare separatamentel’influenza sull’efficienza energeticadei sistemi di pompaggio e della rete, mostrando il ruolo importante con cui questa contribuisce all’efficienza globale del sistema. Viene proposto uno sviluppo ulteriore dell’indicatore GEE Global Energy Efficiency (Abadia, 2008), che consente di distinguere l’impatto sull’efficienza energetica dovuto alle perdite idriche e alla struttura intrinseca della rete, in termini di collocazione reciproca tra risorsa idrica e domanda e schema impiantistico.Questa metodologia di analisi dell’efficienza energetica è stata applicata ai casi di studio, sia sintetici che reali, il distretto di Marzaglia (MO) e quello di Mirabello (FE), entrambi alimentati da pompe a giri variabili.. La ricerca ha consentito di mostrare inoltre il ruolo della modellazione numerica in particolare nell’analisi dell’effetto prodotto sull’efficienza energetica dalla presenza di perdite idriche. Nell’ultimo capitolo si completa la panoramica dei benefici ottenibili attraverso la riduzione della pressione, che nei casi citati viene conseguita tramite pompe asservite ad inverter, con il caso di studio del distretto Bolognina all’interno del sistema di distribuzione di Bologna, che vede l’utilizzo di valvole riduttrici di pressione. Oltre a stimare il risparmio energetico derivante dalla riduzione delle perdite ottenuta tramite le PRV, sono stati valutati su modello i benefici energetici conseguenti all’introduzione nel distretto di turbine per la produzione di energia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi svolge il tema dell'abuso del diritto nell'ambito del diritto tributario comparato. Vengono individuati due limiti nella trattazione dell'argomento: l'oggetto di studio è il fenomeno abusivo riguardante esclusivamente il diritto tributario e specificamente nell'ottica comparativa dei due ordinamenti giuridici comunitario e brasiliano. Questi ultimi rivelano un importante punto comune: la distribuzione orizzontale del potere tributario. Di conseguenza una parte della tesi analizza gli ordinamenti giuridici con divisione orizzontale di potere. Con lo scopo di svolgere quest'ultima analisi, viene trattato il concetto di potestà tributaria e dei suoi elementi costitutivi, nonché della strutturazione della potestà  tributaria sia in Brasile sia nell'Unione Europea, due contesti in cui un potere centrale esercita influenza anche sugli enti detentori del potere. In questo senso vengono esposti lo storico della potestà  tributaria brasiliana, le considerazioni teoriche sul federalismo fiscale e l'assetto di quest'ultimo nel Brasile odierno; d'altra parte, riguardo all'Unione Europea, sono presentate l'analisi del concetto di sovranità  e la divisione del potere nell'ambito dell'Unione Europea, in specifico del potere tributario. Dopo aver mostrato i punti di convergenza e divergenza di questi due ordinamenti, si passa ad esaminare l'abuso del diritto come fenomeno nell'ambito tributario. Quindi si esamina la disciplina giuridica dell'abuso di diritto nel diritto tributario in entrambi ordinamenti, partendo da un excursus storico, sia in un'ottica generale sia in quella specifica del diritto tributario, ed esaminando le modalità  di abuso del diritto con riflessi tributari. Finite le suddette analisi, è stato possibile trarre conclusioni nella direzione della ricostruzione dogmatica tributaria sull'abuso di diritto in entrambi i sistemi, suggerendo elementi per l'ottimizzazione di tale disciplina.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tratta alcuni dei principali filtri di diffusione non lineari per il problema di denoising di immagini. In particolare pertendo dalla formulazione del problema come minimizzazione di un funzionale introduce modelli allo stato dell'arte come il filtro Lineare, di Perona Malik, alle Variazioni Totali e per Curvatura; infine un nuovo modello diffusivo sviluppato dal prof.Antonio Marquina è per la prima volta applicato al problema di denoising. Seguono numerosi schemi numerici alle differenze finite per risolverli, che generano procedimenti iterativi espliciti, impliciti e AOS. Verrà analizzato per la prima volta per il problema di denoising uno schema conservativo al prim'ordine e di ordine superiore, dopo evere proposto una modifica per rendere idoneo la funzione diffusività. Infine vi è un ampio capitolo con considerazioni numeriche e visive sui risultati sperimentali ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.