925 resultados para Magneto-Dielettrico, Antenne miniaturizzate, Tecniche di misura di substrati di permettività e di permeabilità, CST
Resumo:
Nel Comune di Ravenna, oltre 6.800 ettari di terreni agricoli sono a rischio salinizzazione, a causa dell’alta salinità delle acque sotterranee presenti all’interno dell’acquifero freatico costiero. L'area è interessata da subsidenza naturale, per compattazione dei sedimenti alluvionali e antropica, causata dall’estrazione di gas e dall’eccessivo sfruttamento delle acque sotterranee. Ne deriva che la maggior parte di questo territorio è sotto il livello medio del mare e l'agricoltura, così come ogni altra attività umana, è possibile grazie ad una fitta rete di canali di drenaggio che garantiscono il franco di coltivazione. L’agricoltura è una risorsa importante per la zona, ma a causa della scarsa disponibilità di acque dolci e per l’aumento dei processi di salinizzazione dei suoli, necessita di un cambiamento. Servono pratiche agricole sostenibili, con idonei requisiti irrigui, di drenaggio del suolo, di resistenza alla salinizzazione e di controllo del suolo. Dopo un’analisi generale sulle condizioni dell’acquifero, è stato monitorato un transetto di 10km rappresentativo della parte costiera di Ravenna. Infine, con l'obiettivo di comprendere l'interazione tra un canale d'irrigazione e le acque sotterranee, una piccola area agricola (12 ettari), è stata monitorata nel corso del 2011 utilizzando metodi idrologici, geochimici e geofisici. I risultati di questo lavoro mostrano una diffusa salinizzazione della falda freatica, ma anche la presenza di una lente d'acqua dolce spessa 5m, a 400m dalla linea di riva, con caratteristiche chimiche (hydrofacies) tipici di acque continentali e con dimensioni variabili stagionalmente. Questa bolla di acqua dolce si è originata esclusivamente dalle infiltrazioni dal canale d’irrigazione presente, in quanto, il contributo dell’irrigazione superficiale è stato nullo. Sfruttando la rete di canali di drenaggio già presente sarebbe possibile estendere questo processo d’infiltrazione da canale in altre porzioni dell’acquifero allo scopo di ricaricare l’acquifero stesso e limitare la salinizzazione dei suoli.
Resumo:
Tuta absoluta (Meyrick) è un lepidottero originario dell’America meridionale, infeudato a pomodoro e ad altre solanacee coltivate e spontanee. Con l’attività trofica le larve causano mine fogliari e gallerie nei frutti, con conseguenti ingenti danni alle colture. T. absoluta è stato segnalato per la prima volta in Italia nel 2008 e in Piemonte nel 2009. Pertanto le ricerche sono state condotte per rilevarne la distribuzione in Piemonte, studiarne l’andamento di popolazione in condizioni naturali e controllate, e valutare l’efficacia di differenti mezzi di lotta al fine di definire le strategie di difesa. Il monitoraggio, condotto nel 2010, ha evidenziato come T. absoluta sia ormai largamente diffuso sul territorio regionale già pochi mesi dopo la segnalazione. L’insetto ha mostrato di prediligere condizioni climatiche più miti; infatti è stato ritrovato con maggiore frequenza nelle aree più calde. Il fitofago ha raggiunto densità di popolazione elevate a partire dalla seconda metà dell’estate, a ulteriore dimostrazione che, in una regione a clima temperato come il Piemonte, T. absoluta dà origine a infestazioni economicamente rilevanti solo dopo il culmine della stagione estiva. Per definire le strategie di lotta, sono state condotte prove in laboratorio, semi-campo e campo volte a valutare la tossicità nei confronti del lepidottero di preparati a base di emamectina benzoato, rynaxypyr, spinosad e Bacillus thuringiensis Berliner. In campo è stata verificata anche l’efficacia del miride dicifino Macrolophus pygmaeus (Rambur), reperibile in commercio. In tutte le prove, è stata riscontrata una maggiore efficacia di rynaxypyr ed emamectina benzoato. In campo M. pygmaeus ha mostrato difficoltà d’insediamento ed è stato in grado di contenere efficacemente il fitofago soltanto con bassi livelli d’infestazione. Per contro è stata costantemente osservata la presenza naturale di un altro miride dicifino Dicyphus errans (Wolff), che in laboratorio ha mostrato di non essere particolarmente disturbato dalle sostanze saggiate.
Resumo:
Modellizzazione della macchina asincrona esafase asimmetrica mediante i vettori di spazio trifase. Determinazione delle trasformazioni esafase dallo studio del campo magnetico rotante. Modellizzazione della macchina asincrona esafase asimmetrica mediante i vettori di spazio esafase. Studio dell’inverter esafase e delle relative tecniche di modulazione. Definizione del modello Simulink dell’azionamento. Studio del ripple della corrente di carico.
Resumo:
Più volte nel corso dell’ ultimo secolo la ricerca si è concentrata sulle alghe brune come piante alimentari dalle quali poter ricavare diversi prodotti. L’obiettivo del presente elaborato è dimostrare come sia possibile valorizzare e caratterizzare l'Ascophyllum nodosum destrutturando il tessuto vegetale attraverso l'utilizzo di biocatalizzatori enzimatici, al fine di liberare composti di interesse specifici da utilizzare in vari ambiti dell'industria (cosmetica, alimentare, agronomica). I risultati rivelano che l’attività alginasica svolge un’importante ruolo nel rilascio di antiossidanti; infatti, la grande quantità di alginati, tipica delle alghe brune, determina il rilascio di componenti chimiche che presentano il maggior potere antiossidante.
Resumo:
L'elaborato ha come scopo l'analisi delle tecniche di Text Mining e la loro applicazione all'interno di processi per l'auto-organizzazione della conoscenza. La prima parte della tesi si concentra sul concetto del Text Mining. Viene fornita la sua definizione, i possibili campi di utilizzo, il processo di sviluppo che lo riguarda e vengono esposte le diverse tecniche di Text Mining. Si analizzano poi alcuni tools per il Text Mining e infine vengono presentati alcuni esempi pratici di utilizzo. Il macro-argomento che viene esposto successivamente riguarda TuCSoN, una infrastruttura per la coordinazione di processi: autonomi, distribuiti e intelligenti, come ad esempio gli agenti. Si descrivono innanzi tutto le entità sulle quali il modello si basa, vengono introdotte le metodologie di interazione fra di essi e successivamente, gli strumenti di programmazione che l'infrastruttura mette a disposizione. La tesi, in un secondo momento, presenta MoK, un modello di coordinazione basato sulla biochimica studiato per l'auto-organizzazione della conoscenza. Anche per MoK, come per TuCSoN, vengono introdotte le entità alla base del modello. Avvalendosi MoK dell'infrastruttura TuCSoN, viene mostrato come le entità del primo vengano mappate su quelle del secondo. A conclusione dell'argomento viene mostrata un'applicazione per l'auto-organizzazione di news che si avvale del modello. Il capitolo successivo si occupa di analizzare i possibili utilizzi delle tecniche di Text Mining all'interno di infrastrutture per l'auto-organizzazione, come MoK. Nell'elaborato vengono poi presentati gli esperimenti effettuati sfruttando tecniche di Text Mining. Tutti gli esperimenti svolti hanno come scopo la clusterizzazione di articoli scientifici in base al loro contenuto, vengono quindi analizzati i risultati ottenuti. L'elaborato di tesi si conclude mettendo in evidenza alcune considerazioni finali su quanto svolto.
Resumo:
Tecniche di ingegneria tessutale per la realizzazione di protesi valvolari cardiache
Resumo:
Nel presente lavoro si espone un algoritmo che riproduce la forma dell'involucro di un pallone aerostatico ad aria calda. Si utilizza il metodo della cloth simulation per simulare il comportamento del tessuto sotto l'azione di forze di pressione, forze elastiche e forza di gravità. Si confrontano infine i risultati ottenuti variando la pressione interna dell'involucro, il modulo di elasticità del tessuto e i carichi applicati.
Resumo:
La Lean Production è un tema di estrema attualità per tutte le aziende che abbiano compreso l’importanza di produrre di più, con le risorse che si hanno a disposizione, eliminando sistematicamente tutte le attività che non creano valore aggiunto. La Produzione Snella è diventato un metodo per incrementare la competitività, riducendo l’incertezza e aumentando il servizio fornito al cliente. Nella realtà attuale vi è ancora una scarsa diffusione dei concetti Lean. Le cause di questo problema sono imputabili soprattutto alla cultura del management aziendale, alla mancanza di efficaci strumenti tecnologici a supporto, e in alcuni casi, la scarsa disponibilità delle imprese ad abbracciare la filosofica “snella”. La presente tesi, dopo una panoramica introduttiva su l’origine e l’evoluzione del Pensiero Snello e l’analisi di tutti i tools disponibili per combattere lo spreco; si propone di analizzare l’applicazione degli stessi in Gambro Dasco, multinazionale biomedicale leader nella vendita delle sue apparecchiature per dialisi.
Resumo:
Lavoro di tesi che mette a confronto una tecnica affermata nel campo della diagnostica cardiaca, come la coronarografia e il cateterismo cardiaco, con tecniche di ultima generazione quali cardio-TC e cardio-RM.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.
Resumo:
L’evoluzione dei componenti elettronici di potenza ed il conseguente sviluppo dei convertitori statici dell’energia elettrica hanno consentito di ottenere un’elevata efficienza energetica, sia nell’ambito degli azionamenti elettrici, sia nell’ambito della trasmissione e distribuzione dell’energia elettrica. L’efficienza energetica è una questione molto importante nell’attuale contesto storico, in quanto si sta facendo fronte ad una elevatissima richiesta di energia, sfruttando prevalentemente fonti di energia non rinnovabili. L’introduzione dei convertitori statici ha reso possibile un notevolissimo incremento dello sfruttamento delle fonti di energia rinnovabili: si pensi ad esempio agli inverter per impianti fotovoltaici o ai convertitori back to back per applicazioni eoliche. All’aumentare della potenza di un convertitore aumenta la sua tensione di esercizio: le limitazioni della tensione sopportabile dagli IGBT, che sono i componenti elettronici di potenza di più largo impiego nei convertitori statici, rendono necessarie modifiche strutturali per i convertitori nei casi in cui la tensione superi determinati valori. Tipicamente in media ed alta tensione si impiegano strutture multilivello. Esistono più tipi di configurazioni multilivello: nel presente lavoro è stato fatto un confronto tra le varie strutture esistenti e sono state valutate le possibilità offerte dall’architettura innovativa Modular Multilevel Converter, nota come MMC. Attualmente le strutture più diffuse sono la Diode Clamped e la Cascaded. La prima non è modulare, in quanto richiede un’apposita progettazione in relazione al numero di livelli di tensione. La seconda è modulare, ma richiede alimentazioni separate e indipendenti per ogni modulo. La struttura MMC è modulare e necessita di un’unica alimentazione per il bus DC, ma la presenza dei condensatori richiede particolare attenzione in fase di progettazione della tecnica di controllo, analogamente al caso del Diode Clamped. Un esempio di possibile utilizzo del convertitore MMC riguarda le trasmissioni HVDC, alle quali si sta dedicando un crescente interesse negli ultimi anni.