980 resultados para Estonia, campi di concentramento, collaborazionismo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni sono stati sintetizzati numerosi oligomeri e polimeri del tiofene che, grazie alle loro proprietà di semiconduttori, hanno trovano largo impiego in molti campi di interesse tecnologico come, ad esempio, transistor ad effetto di campo, diodi elettroluminescenti, dispositivi ottici non lineari e celle fotovoltaiche. Più recentemente, oligomeri tiofenici ossidati allo zolfo hanno trovato applicazione sia in campo elettronico, come materiali accettori in blenda con il poli(3-esiltiofene) (P3HT) usato come materiale donatore, in celle solari di tipo Bulk Hetero Junction (BHJ), ma anche in campo biologico come marcatori fluorescenti di proteine e oligonucleotidi. Tuttavia la sintesi di queste specie richiede condizioni di reazione spinte e al contempo rischiose dovute all’utilizzo in largo eccesso di agenti ossidanti molto forti. Uno degli obiettivi di questa tesi è stato lo sviluppo di metodi più versatili per la mono e di-ossidazione selettiva allo zolfo del tiofene di building-blocks dibromurati di diversa natura. Successivamente i building-blocks S-monossido e S,S-diossido derivati sono stati impiegati per la sintesi di oligomeri e polimeri tramite reazioni di cross-coupling Palladio catalizzate. I composti finali sono stati caratterizzati sia dal punto di vista spettroscopico UV-Vis che elettrochimico, mettendo in evidenza le relazioni che esistono fra gli andamenti dei dati sperimentali ottenuti con il diverso stato di ossidazione dei composti tiofenici diversamente sostituiti. Infine i composti finali sono stati testati sia in campo fotovoltaico che biologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerose ricerche indicano i modelli di cure integrate come la migliore soluzione per costruire un sistema più efficace ed efficiente nella risposta ai bisogni del paziente con tumore, spesso, però, l’integrazione è considerata da una prospettiva principalmente clinica, come l’adozione di linee guida nei percorsi della diagnosi e del trattamento assistenziale o la promozione di gruppi di lavoro per specifiche patologie, trascurando la prospettiva del paziente e la valutazione della sua esperienza nei servizi. Il presente lavoro si propone di esaminare la relazione tra l’integrazione delle cure oncologiche e l’esperienza del paziente; com'è rappresentato il suo coinvolgimento e quali siano i campi di partecipazione nel percorso oncologico, infine se sia possibile misurare l’esperienza vissuta. L’indagine è stata svolta sia attraverso la revisione e l’analisi della letteratura sia attraverso un caso di studio, condotto all'interno della Rete Oncologica di Area Vasta Romagna, tramite la somministrazione di un questionario a 310 pazienti con neoplasia al colon retto o alla mammella. Dai risultati, emerge un quadro generale positivo della relazione tra l’organizzazione a rete dei servizi oncologici e l’esperienza del paziente. In particolare, è stato possibile evidenziare quattro principali nodi organizzativi che introducono la prospettiva del paziente: “individual care provider”,“team care provider”,“mixed approach”,“continuity and quality of care”. Inoltre, è stato possibile delineare un campo semantico coerente del concetto di coinvolgimento del paziente in oncologia e individuare quattro campi di applicazione, lungo tutte le fasi del percorso: “prevenzione”, “trattamento”,“cura”,“ricerca”. Infine, è stato possibile identificare nel concetto di continuità di cura il modo in cui i singoli pazienti sperimentano l’integrazione o il coordinamento delle cure e analizzare differenti aspetti del vissuto della persona e dell’organizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento trattato in questo elaborato riguarda una nuova tecnologia che si sta sviluppando nell’ambito dell’ingegneria dei tessuti: il Bioprinting. Tale rivoluzionario approccio completamente automatizzato, grazie all’utilizzo dell’elaborazione automatica delle immagini CAD (Computer Aided Design) e la fabbricazione assistita al calcolatore CAM (Computer Aided Manufacturing), si propone di ricreare tessuti e/o organi. In particolare nel seguito ne verrà data una definizione e ne verranno definiti i campi di applicazione, per poi proseguire con un’analisi del processo dal punto di vista delle fasi che lo compongono e la speciale tecnologia utilizzata. Infine verrà proposto qualche studio fatto in merito ai tessuti vascolari e alla cartilagine per poi concludere con i pionieri che tuttora contribuiscono al suo sviluppo e con Organovo, una delle aziende leader del settore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il telerilevamento rappresenta un efficace strumento per il monitoraggio dell’ambiente e del territorio, grazie alla disponibilità di sensori che riprendono con cadenza temporale fissa porzioni della superficie terrestre. Le immagini multi/iperspettrali acquisite sono in grado di fornire informazioni per differenti campi di applicazione. In questo studio è stato affrontato il tema del consumo di suolo che rappresenta un’importante sfida per una corretta gestione del territorio, poiché direttamente connesso con i fenomeni del runoff urbano, della frammentazione ecosistemica e con la sottrazione di importanti territori agricoli. Ancora non esiste una definizione unica, ed anche una metodologia di misura, del consumo di suolo; in questo studio è stato definito come tale quello che provoca impermeabilizzazione del terreno. L’area scelta è quella della Provincia di Bologna che si estende per 3.702 km2 ed è caratterizzata a nord dalla Pianura Padana e a sud dalla catena appenninica; secondo i dati forniti dall’ISTAT, nel periodo 2001-2011 è stata la quarta provincia in Italia con più consumo di suolo. Tramite classificazione pixel-based è stata fatta una mappatura del fenomeno per cinque immagini Landsat. Anche se a media risoluzione, e quindi non in grado di mappare tutti i dettagli, esse sono particolarmente idonee per aree estese come quella scelta ed inoltre garantiscono una più ampia copertura temporale. Il periodo considerato va dal 1987 al 2013 e, tramite procedure di change detection applicate alle mappe prodotte, si è cercato di quantificare il fenomeno, confrontarlo con i dati esistenti e analizzare la sua distribuzione spaziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro si inserisce all’interno del progetto che da più di quindici anni si sta portando avanti presso il Laboratorio di Terminologia e Traduzione Assistita (Dipartimento di Interpretazione e Traduzione dell’Università di Bologna) e che riguarda la creazione di risorse terminologiche specifiche per le esigenze professionali e di formazione degli interpreti di conferenza. La peculiarità del Laboratorio risiede nel fatto che gli strumenti terminologici e terminografici sono usati anche per descrivere elementi del lessico naturale: sia le risorse che servono per strutturare un discorso orale (nessi e segnali discorsivi), sia le espressioni linguistiche che, per il loro stretto legame con una determinata lingua-cultura, possono creare problemi traduttivi a livello semantico e sintattico (espressioni idiomatiche, collocazioni, locuzioni, ecc.). Proprio su queste espressioni è incentrato il lavoro di questa tesi; il nucleo è rappresentato dalla creazione di 40 schede terminografiche dedicate a locuzioni italiane che presentano diversi gradi di “fissità” e di idiomaticità. Il termine ‘locuzione’ è stato usato in senso ampio per includere diverse tipologie di espressioni quali collocazioni, espressioni idiomatiche, costruzioni con verbi supporto e locuzioni propriamente dette. Lo scopo principale, infatti, non era costruire una classificazione teorica, bensì creare una risorsa che potesse servire all’interprete nell’ambito sia professionale sia formativo. Le schede, infatti, sono state costruite in modo che possano servire sia come glossario per identificare equivalenti funzionali nelle altre lingue di lavoro (i primi 5 campi di ogni scheda), sia come strumento per sviluppare una competenza lessicale “alta” legata, appunto, alla conoscenza della struttura e dei modi d’uso di espressioni formulari che possono variare sensibilmente da una lingua-cultura a un’altra (gli ultimi 5 campi). Le schede, costruite basandosi su risorse lessicografiche e terminografiche e su un corpus di resoconti di sedute parlamentari, devono essere considerate come il primo passo nella creazione di un database terminologico multilingue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il settore dell’ingegneria clinica comprende la progettazione e la realizzazione dei sistemi informatici di gestione dell’informazione clinica. Col passare degli anni, a questi campi se ne è aggiunto un altro: la telemedicina. I campi di applicazione della telemedicina sono numerosissimi e in continua evoluzione. Nello specifico, la tesi tratterà della gestione delle persone diabetiche tramite monitoraggio remoto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta di argomenti di Teoria di Galois. In essa sono presenti alcuni richiami fondamentali della teoria di Galois, come il gruppo di Galois di una estensione di campi di Galois e la corrispondenza di Galois. Prosegue con lo studio delle radici m-esime primitive dell'unità e dei polinomi ciclotomici. Infine si studia il gruppo di Galois di un polinomio ciclotomico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.