582 resultados para retorinen metodi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In un paese come l’Italia sempre più investito dal fenomeno del multiculturalismo come conseguenza dell’immigrazione, la lingua è elemento di scambio culturale e linguistico, determinante nella negoziazione delle identità diverse che si incontrano. L’apprendimento e, di conseguenza, la conoscenza della lingua del paese ospitante, costituiscono per l’immigrato il primo fattore di integrazione nonché vettore della propria cultura e dei propri valori, difficilmente trasmissibili ai parlanti nativi nella lingua d’origine. Essendo dunque la questione della lingua per gli immigrati, una prospettiva di indagine di estrema importanza e attualità, ho deciso di farne l’oggetto della mia tesi di fine percorso di studi universitario. Partirò con un’analisi della nascita dell’italiano come lingua di studio e dunque come lingua seconda, sino ad arrivare ai risultati ottenuti dalla linguistica e dalla glottodidattica. Analizzerò quelli che erano i destinatari e i docenti dell’italiano L2 di un tempo, e quelli che invece sono oggi i principali protagonisti dello studio della nostra lingua e i nuovi insegnanti, mettendo in luce le diversità nei metodi e negli scopi. Presenterò i fenomeni e i fattori coinvolti nell’italiano L2 degli immigrati e quelli derivanti dall’incontro delle lingue d’origine di quest’ultimi con la lingua italiana. Non mancherà infatti la riflessione sugli altri attori in gioco, noi italiani, in quanto società ospitante, che nella nostra messa in scena quotidiana, attraverso i comportamenti linguistici, esterniamo il nostro sentimento nei riguardi degli immigrati, sia esso di inclusione o di esclusione. Infine farò un excursus sulla letteratura dell’immigrazione, la quale rappresenta la concretizzazione di quanto verrà detto sulla questione della lingua, analizzando infatti attraverso le varie fasi storiche, proprio le diverse visioni degli scrittori e quindi dei protagonisti delle loro opere in merito alla propria identità linguistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro di tesi è rappresentato dalla definizione di un metodo di ricerca terminologica e documentazione, nonché di traduzione assistita, supportato dalle moderne tecnologie disponibili in questo campo (Antconc, Bootcat, Trados ecc.), valido per la traduzione di questo tipo di documenti, gli standard, ma sfruttabile anche in altri ambiti della traduzione tecnico-scientifica, permettendo al traduttore e, di conseguenza, al committente, di ottenere un documento “accettabile” e qualitativamente idoneo in lingua di arrivo. Il percorso tracciato in questo elaborato parte dalla presentazione del quadro storico generale, per poi passare alla classificazione degli additivi alimentari in base alla tipologia e agli impieghi in campo alimentare. Verranno illustrati in modo generale i metodi di analisi degli additivi e i criteri di validazione dei metodi impiegati, in funzione degli standard internazionali relativi alla materia, rivolgendo particolare attenzione al quadro normativo e alle agli organi coinvolti nella regolamentazione e nel controllo di queste sostanze, sia in Italia che in Russia e nel resto del mondo. Tutto ciò in funzione degli avvenimenti sul piano geopolitico e su quello culturale: da un lato le sanzioni economiche tra UE e Russia, dall’altro EXPO 2015, opportunità per numerosi traduttori e terminologi di approfondire e arricchire le proprie conoscenze in un ambito tanto importante: alimentazione e sicurezza alimentare, in relazione al progetto di gestione terminologica VOCA9. La parte finale della tesi è dedicata alla presentazione degli standard russi GOST R e alla loro traduzione in italiano, in funzione della documentazione e alla ricerca terminologica necessarie per la traduzione tramite CAT tools ed indispensabili per la creazione di glossari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’antibiotico resistenza negli enterobatteri produttori di carbapenemasi (CPE) rappresenta una problematica emergente in sanità pubblica, dato che le opzioni alternative per il trattamento di pazienti infetti sono limitate. L’andamento epidemiologico di CPE a livello globale appare ad oggi molto variegato con differenze significative tra paesi. In Italia la diffusione di K. pneumoniae produttrice di KPC è endemica ed è stimata essere un terzo (32,9%) delle infezioni invasive (sangue e liquor) da K. pneumoniae. Pertanto, diventa indispensabile implementare gli studi di farmaco-resistenza per valutare e ridurre il potenziale di crescita di tali microrganismi. Questo studio presenta come fine la valutazione del Beta Carba test, metodo cromogeno, per il rapido rilevamento di CPE in confronto con il metodo standard di riferimento. Lo studio è stato svolto presso l’U.O. Microbiologia AUSL della Romagna ed è di natura retrospettiva, di tipo esclusivamente qualitativo. Sono stati analizzati 412 campioni completamente anonimizzati: 50 emocolture, 250 urine e 112 tamponi rettali di sorveglianza. La valutazione del test è stata condotta sia direttamente a partire dalle matrici biologiche (emocolture e urinocolture positive) che dalle colonie isolate di CPE da tamponi rettali di sorveglianza, urine o emocolture. I risultati sperimentali ottenuti in vitro con il β Carba, mostrano una totale concordanza con i metodi sia fenotipici che genotipici utilizzati come riferimento: sono state ottenute sensibilità e specificità del 100%. Inoltre, a favore del test si inserisce il parametro fondamentale della rapidità, consentendo quindi una celere rilevazione di CPE direttamente su campioni clinici con un tempo di risposta piuttosto veloce e affidabile pari a 15-30 minuti. In definitiva, grazie alla performance dimostrata in vitro, il test può rappresentare un valido strumento per arginare e limitare lo spreading di CPE, svolgendo un buon ruolo nella gestione dei pazienti infetti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato tratterà, in linea teorica e successivamente con un esempio pratico, il tema della strategia di costo basata sulla leadership di costo. La prima parte vedrà partirà da una linea ampia, al fine di chiarire al meglio cosa sia una strategia aziendale e come essa vada implementata,si restringerà poi andandosi a focalizzare con particolare attenzione su come applicare tale strategia nei mercati di beni durevoli, beni il cui consumo viene ripetuto nel tempo. L'analisi vedrà in particolare, li strumenti, i metodi aziendali e la filosofia per far si che tale strategia diventi più che competitiva nei mercati individuati. Si analizzerà inoltre brevemente il caso di Ikea, leader mondiale della produzione e distribuzione di mobili, la quale ha posto il suo modello di business proprio sulla Leadership di costo. La seconda parte vedrà un caso pratico: come tale strategia è stata implementata e utilizzata nel contesto del business game, una simulazione di un mercato proprio di beni durevoli, lavatrici e asciugabiancherie. L'analisi verterà sulla squadra Freedinelli che ha conseguito buoni risultati attraverso tale strategia. Infine verranno tratte delle conclusioni sulla convenienza ad utilizzare tale strategia, in quali casi sia più conveniente farlo e come farlo al meglio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno la ricerca di nuovi materiali per gradatori di campo da impiegarsi in accessori di cavi ha iniziato a studiare alcuni materiali nano dielettrici con proprietà elettriche non lineari con la tensione ed aventi proprietà migliorate rispetto al materiale base. Per questo motivo in questo elaborato si sono studiati materiali nanostrutturati a base di polietilene a bassa densità (LDPE) contenenti nano polveri di grafene funzionalizzato (G*), ossido di grafene (GO) e carbon black (CB). Il primo obiettivo è stato quello di selezionare e ottimizzare i metodi di fabbricazione dei provini. La procedura di produzione è suddivisa in due parti. Nella prima parte è stata utilizzatala tecnica del ball-milling, mentre nella seconda un pressa termica (thermal pressing). Mediante la spettroscopia dielettrica a banda larga (BDS) si sono misurate le componenti reali e immaginarie della permettività e il modulo della conducibilità del materiale, in tensione alternata. Il miglioramento delle proprietà rispetto al provino di base composto dal solo polietilene si sono ottenute quando il quantitativo delle nanopolveri era maggiore. Le misure sono state effettuate sia a 3 V che a 1 kV. Attraverso misurazioni di termogravimetria (TGA) si è osservato l’aumento della resistenza termica di tutti i provini, soprattutto nel caso quando la % di nanopolveri è maggiore. Per i provini LDPE + 0.3 wt% GO e LDPE + 0.3 wt% G* si è misurata la resistenza alle scariche parziali attraverso la valutazione dell’erosione superficiale dei provini. Per il provino contenente G* è stato registrato una diminuzione del 22% del volume eroso, rispetto al materiale base, mentre per quello contenente GO non vi sono state variazioni significative. Infine si è ricercata la resistenza al breakdown di questi ultimi tre provini sopra citati. Per la caratterizzazione si è fatto uso della distribuzione di Weibull. Lo scale parameter α risulta aumentare solo per il provino LDPE + 0.3 wt% G*.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi si parlerà del grafene, una forma allotropica del carbonio, e del suo uso in fotocatalisi. Si illustreranno alcuni utilizzi dei fotocatalizzatori grafene-semiconduttore, sottolineando i benefici che comporta l'introduzione del grafene. Oltre a questo, si parlerà dei metodi di produzione di tale compositi, trattando la produzione del grafene stesso, la formazione di compositi GR-semiconduttore e le modifiche diche è possibile introdurre in fase di produzione con lo scopo di aumentare l'attività fotocatalitica e la durata dei materiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato ha come oggetto l’analisi e lo studio delle teorie di calcolo degli stati tensionali e deformativi delle lastre in calcestruzzo e dei metodi di progettazione delle pavimentazioni rigide aeroportuali, le quali sono state applicate al caso specifico degli interventi di riqualifica e adeguamento delle infrastrutture di volo dell’Aeroporto “Marco Polo” di Tessera – Venezia. Sono state descritte le principali fasi realizzative della pavimentazione rigida dell’Apron Sud del suddetto aeroporto ed analizzati i risultati delle prove di caratterizzazione del calcestruzzo, in fase preliminare e in corso d’opera, e delle prove di valutazione della capacità portante della sovrastruttura ultimata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni la teoria dei network è stata applicata agli ambiti più diversi, mostrando proprietà caratterizzanti tutti i network reali. In questo lavoro abbiamo applicato gli strumenti della teoria dei network a dati cerebrali ottenuti tramite MRI funzionale “resting”, provenienti da due esperimenti. I dati di fMRI sono particolarmente adatti ad essere studiati tramite reti complesse, poiché in un esperimento si ottengono tipicamente più di centomila serie temporali per ogni individuo, da più di 100 valori ciascuna. I dati cerebrali negli umani sono molto variabili e ogni operazione di acquisizione dati, così come ogni passo della costruzione del network, richiede particolare attenzione. Per ottenere un network dai dati grezzi, ogni passo nel preprocessamento è stato effettuato tramite software appositi, e anche con nuovi metodi da noi implementati. Il primo set di dati analizzati è stato usato come riferimento per la caratterizzazione delle proprietà del network, in particolare delle misure di centralità, dal momento che pochi studi a riguardo sono stati condotti finora. Alcune delle misure usate indicano valori di centralità significativi, quando confrontati con un modello nullo. Questo comportamento `e stato investigato anche a istanti di tempo diversi, usando un approccio sliding window, applicando un test statistico basato su un modello nullo pi`u complesso. Il secondo set di dati analizzato riguarda individui in quattro diversi stati di riposo, da un livello di completa coscienza a uno di profonda incoscienza. E' stato quindi investigato il potere che queste misure di centralità hanno nel discriminare tra diversi stati, risultando essere dei potenziali bio-marcatori di stati di coscienza. E’ stato riscontrato inoltre che non tutte le misure hanno lo stesso potere discriminante. Secondo i lavori a noi noti, questo `e il primo studio che caratterizza differenze tra stati di coscienza nel cervello di individui sani per mezzo della teoria dei network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vengono analizzate le strategie di rilascio delle principali Distribuzioni Linux e i metodi per la compilazione automatizzata del software. Si propone quindi una nuova metodologia sia per il rilascio di media installabili e sia per la pacchettizzazione. Sfruttando le tecnologie del campo DevOps, si introduce quindi un alto grado di scalabilità anche in ambienti Cloud, grazie anche alla riproducibilità di ogni componente dell'infrastruttura proposta. Vedremo quindi come questo approccio aumenta l'automatizzazione nei cicli produttivi per la realizzazione della Distribuzione Sabayon Linux e per la definizione di un'infrastruttura automatizzata attualmente in production.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilizzo di percorsi non centralizzati per la comunicazione tra dispositivi mobili presenta notevoli vantaggi, tra i quali una maggiore sicurezza e segretezza e l'indipendenza da infrastrutture esterne (Internet). Gli studi e le implementazioni di questo tipo di funzionalità stanno emergendo recentemente di pari passo con i traguardi raggiunti nel campo della tecnologia mobile, ma si trovano ancora in uno stato sperimentale e poco fruibile in pratica. È stata sviluppata come proof of work un'applicazione che permette di diffondere messaggi tra dispositivi mobili senza connessione a internet, sfruttando un sistema di comunicazione (quasi) peer to peer. Viene descritta in generale l'architettura e il funzionamento dell'applicazione insieme a dei possibili casi d'uso. Inoltre vengono mostrati i metodi vagliati ed effettivamente utilizzati per implementare questo tipo di comunicazione, insieme ad altre caratteristiche secondarie (crittografia). Il risultato conseguito è a tutti gli effetti funzionante e viene ritenuto la soluzione migliore possibile tra tutte quelle trovate, ma presenta comunque diversi difetti. La conclusione raggiunta è che lo stato attuale dell'arte non permetta di raggiungere lo scopo prefissato in maniera ottimale, in quanto è necessario ricorrere a metodi poco funzionali a causa della mancanza di supporto alle tecnologie necessarie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni il crescere della capacità di calcolo dei dispositivi e il diminuire delle loro dimensioni ha permesso di far nascere idee innovative e di esplorare più in dettaglio alcuni settori. Uno di questi è sicuramente quello della realtà aumentata (Augmented reality), infatti, la discussione su questo argomento nasce già negli anni 40 del novecento, ma, per mancanza di mezzi tecnologici adeguati, solo ora si iniziano a realizzare le prime applicazioni che si basano su questa idea e il grande pubblico inizia ad interessarsi all'argomento. La costruzione di applicazioni di realtà aumentata, al momento, è basata sull'utilizzo di alcuni framework che mettono a disposizione dello sviluppatore alcune funzioni molto comuni in questi software, come il tracking di marker e l'utilizzo di bottoni virtuali. Questi strumenti, seppur comodi, non garantiscono sempre la buona progettazione dell'applicazione e tendono a unire insieme parti di logica applicativa e di grafica. Per questo motivo, anche nella ricerca, si stanno cercando di studiare dei metodi in grado di permettere una divisione ottimale dei compiti in modo da ottenere un software riusabile e facilmente mantenibile, ma che permetta anche di sfruttare appieno le potenzialità dell'AR attraverso, per esempio, sistemi distribuiti. Un framework concettuale che rientra in questa categoria è sicuramente quello degli Augmented Worlds, mondi virtuali collegati a quello fisico che ne incrementano le caratteristiche e le possibilità tramite la presenza di entità aumentate. La tesi, quindi, si propone di sviluppare un prototipo di un framework con le caratteristiche sopra citate di estendibilità, utilizzando le piattaforme in questo momento a disposizione e ispirandosi alla visione degli Augmented Worlds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un sistema meccanico è descritto da equazioni differenziali spesso non lineari. Nel maggior numero dei casi tali equazioni non sono risolubili per via analitica e quindi si ricorre all'analisi qualitativa del moto che permette di ricavare informazioni su di esso senza integrare le equazioni. Nell’approccio qualitativo il metodo più utilizzato è la discussione alla Weierstrass che permette di ricavare informazioni sul moto di un punto materiale, che si muove di moto unidimensionale, soggetto a forze conservative, a partire dalla legge di conservazione dell'energia totale. Un altro metodo molto efficace è la costruzione del diagramma di fase, che nel caso di un punto materiale si riduce allo studio delle curve di livello dell’energia totale e permette di rappresentare lo stato del sistema in ogni istante di tempo. Infine altri due metodi analitici che si utilizzano nel caso di oscillazioni non lineari sono il metodo delle approssimazioni successive e delle perturbazioni. In questa tesi viene illustrato ampiamente il primo metodo e si danno alcuni cenni degli altri due, corredandoli con esempi.