145 resultados para Pari suhteessa : tunne itsesi, uskalla rakastaa
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
Negli ultimi anni la tecnica di misura della correlazione digitale di immagini (“Digital Image Correlation” = DIC) sta trovando numerose applicazioni nell’ambito della meccanica sperimentale come valida alternativa per misure di campi di deformazione su componenti strutturali soggetti a carichi statici e dinamici. Misurare deformazioni in provini troppo piccoli, troppo grandi, teneri o caldi, è un tipico scenario in cui diventano necessarie le tecniche senza contatto in quanto l’applicazione di estensimetri risulta inefficiente. L’obiettivo di questo lavoro consta nel valutare l’applicabilità e l’accuratezza di programmi di elaborazione gratuiti per la correlazione digitale di immagini evidenziandone il metodo di utilizzo e l’autenticità dei risultati verificati attraverso prove in laboratorio. Tali programmi, per praticità e gratuità, nel campo bidimensionale, possono considerarsi una valida alternativa a programmi commerciali di elevato costo. Nonostante ciò, presentano alcune criticità e limitazioni che emergeranno dalle attente sperimentazioni effettuate. Verrà così definita la corretta e necessaria preparazione del set up sperimentale antecedente la prova e il campo di applicabilità a cui si prestano tali programmi per un preciso ed autentico rilevamento delle deformazioni subite da un corpo sottoposto a sollecitazioni, al pari di un comune estensimetro.
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
La metodologia Life Cycle Assessment (LCA) è un metodo oggettivo di valutazione e quantificazione dei carichi energetici ed ambientali e degli impatti potenziali associati ad un processo o attività produttiva lungo l’intero ciclo di vita. Il lavoro presentato in questa tesi ha avuto come obiettivo l’analisi del ciclo di vita dell’impianto di trattamento della FORSU (la frazione organica di rifiuti solidi urbani) di Voltana di Lugo, in provincia di Ravenna. L’impianto attuale si basa sull'utilizzo accoppiato di digestione anaerobica a secco (sistema DRY) e compostaggio. Si è voluto inoltre effettuare il confronto fra questo scenario con quello antecedente al 2012, in cui era presente solamente il processo di compostaggio classico e con uno scenario di riferimento in cui si è ipotizzato che tutto il rifiuto trattato potesse essere smaltito in discarica. L’unità funzionale considerata è stata “le tonnellate di rifiuto trattate in un mese“, pari a 2750 t. L’analisi di tutti i carichi energetici ed ambientali dell’impianto di Voltana di Lugo è stata effettuata con l’ausilio di “GaBi 5”, un software di supporto specifico per gli studi di LCA. Dal confronto fra lo scenario attuale e quello precedente è emerso che la configurazione attuale dell’impianto ha delle performance ambientali migliori rispetto alla vecchia configurazione, attiva fino a Dicembre 2012, e tutte e due sono risultate nettamente migliori rispetto allo smaltimento in discarica. I processi che hanno influenzato maggiormente gli impatti sono stati: lo smaltimento del sovvallo in discarica e la cogenerazione, con produzione di energia elettrica da biogas. Il guadagno maggiore, per quanto riguarda lo scenario attuale rispetto a quello precedente, si è avuto proprio dal surplus di energia elettrica prodotta dal cogeneratore, altrimenti prelevata dal mix elettrico nazionale.
Resumo:
In questo lavoro di tesi è stato studiato lo spettro di massa invariante del sistema J/psi pi+ pi-, m(J/psi pi+ pi-), in collisioni protone-protone a LHC, con energia nel centro di massa sqrt(s)) pari a 8 TeV, alla ricerca di nuovi stati adronici. Lo studio è stato effettuato su un campione di dati raccolti da CMS in tutto il 2012, corrispondente ad una luminosità integrata di 18.6 fb-1. Lo spettro di massa invariante m(J/psi pi+ pi-), è stato ricostruito selezionando gli eventi J/psi->mu+ mu- associati a due tracce cariche di segno opposto, assunte essere pioni, provenienti da uno stesso vertice di interazione. Nonostante l'alta statistica a disposizione e l'ampia regione di massa invariante tra 3.6 e 6.0 GeV/c^2 osservata, sono state individuate solo risonanze già note: la risonanza psi(2S) del charmonio, lo stato X(3872) ed una struttura più complessa nella regione attorno a 5 GeV/c^2, che è caratteristica della massa dei mesoni contenenti il quark beauty (mesoni B). Al fine di identificare la natura di tale struttura, è stato necessario ottenere un campione di eventi arricchito in adroni B. È stata effettuata una selezione basata sull'elevata lunghezza di decadimento, che riflette la caratteristica degli adroni B di avere una vita media relativamente lunga (ordine dei picosecondi) rispetto ad altri adroni. Dal campione così ripulito, è stato possibile distinguere tre sottostrutture nello spettro di massa invariante in esame: una a 5.36 GeV/c^2, identificata come i decadimenti B^0_s-> J/psi pi+ pi-, un'altra a 5.28 GeV/c^2 come i candidati B^0-> J/psi pi+ pi- e un'ultima allargata tra 5.1 e 5.2 GeV/c^2 data da effetti di riflessione degli scambi tra pioni e kaoni. Quest'ultima struttura è stata identificata come totalmente costituita di una combinazione di eventi B^0-> J/psi K+ pi- e B^0_s-> J/psi K+ K-.
Resumo:
Obiettivo della presente ricerca è stato la valutazione dell’utilizzo degli scarti derivanti dal processo di vinificazione come substrato per la digestione anerobica finalizzata alla produzione di VFA (“Volatile Fatty Acids”). I VFA sono acidi grassi a corta catena, convenzionalmente fino a 6 atomi di carbonio, che possono essere utilizzati industrialmente nell’ambito della “Carboxilation Platfrorm” per produrre energia, prodotti chimici, o biomateriali. La sperimentazione si è articolata in due fasi principali: 1) Produzione di VFA in processi batch alimentati con vinacce e fecce come substrato; 2) Recupero dei VFA prodotti dall’effluente anaerobico (digestato) mediante processi di adsorbimento con resine a scambio anionico. Nella prima fase sono stati studiati i profili di concentrazione dei principali VFA nel brodo di fermentazione al variare della tipologia di substrato (vinacce e fecce, bianche e rosse) e della temperatura di incubazione (35 °C e 55 °C). La condizione ottimale rilevata per la produzione di VFA è stata la digestione anaerobica di vinacce rosse disidratate e defenolizzate alla temperatura di 35 °C (mesofilia), che ha permesso di raggiungere una concentrazione di VFA totali nel digestato di circa 30 g/L in 16 giorni di monitoraggio. Nella seconda fase è stato analizzato il processo di estrazione in fase solida (Solid Phase Extraction, SPE) con resine a scambio anionico per il recupero dei VFA dal digestato di vinacce rosse. Sono state messe a confronto le prestazioni di quattro diverse resine a scambio anionico: Sepra SAX, Sepra SAX-ZT, Sepra NH2, Amberlyst A21. I parametri operativi ottimali per l’adsorbimento sono risultati essere condizioni di pH acido pari al valore naturale delle soluzioni indicate sopra (~2.5) e tempo di contatto di 2 ore. Tra le quattro resine quella che ha fornito i migliori risultati è stata la Amberlyst A21, una resina polimerica a scambio anionico debolmente basica il cui gruppo funzionale caratteristico è un’ammina terziaria. Infine è stato valutato il processo di desorbimento dei VFA adsorbiti dalla resina con tre diverse soluzioni desorbenti: acqua demineralizzata, etanolo (EtOH) ed acqua basificata con NaOH (1 mol/L). I risultati migliori sono stati conseguiti nel caso dell’EtOH, ottenendo un recupero finale del 9,1% dei VFA inizialmente presenti nel digestato di vinacce rosse incubate in termofilia.
Resumo:
La tesi proposta tratta dei sistemi di telemedicina territoriale, ed in particolare dell’integrazione dei dati raccolti tramite un sistema home-care da un paziente domiciliare e dell’analisi di rischio sui sistemi coinvolti. Con il forte sviluppo tecnologico degli ultimi anni, si è diffusa anche la telemedicina, portando con sé numerosi vantaggi nell’ambito della sanità attraverso servizi come il telemonitoraggio, la teleconsultazione e la telechirurgia. In questa tesi ci si concentra soprattutto sull’aspetto del telemonitoraggio di pazienti domiciliari. A causa dell’invecchiamento della popolazione e del conseguente aumento delle malattie croniche, le spese sanitarie sono infatti destinate ad aumentare nel tempo: da una spesa pari al 7,1% del PIL nel 2011 è previsto si arriverà ad un 8,8% del PIL nel 2060. Risulta quindi necessario migliorare la produttività, l’efficienza e la sostenibilità finanziaria del sistema sanitario con un utilizzo sempre maggiore della telemedicina e in particolare dell’assistenza territoriale, ovvero il trasferimento di risorse dall'ospedale al territorio, che promuove quindi la domiciliarità.
Resumo:
La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.
Resumo:
Questa tesi propone un progetto di riqualificazione funzionale ed energetica del Polo ospedaliero civile di Castel San Pietro Terme, un complesso di edilizia sanitaria attivo dal 1870, che la AUSL proprietaria ha ora programmato di riqualificare. Il complesso, costituito da diversi edifici realizzati in epoche successive con un volume lordo riscaldato di 41670 m3, occupa un’area di 18415 m2. Sottoposto nel corso del tempo a ripetute modifiche e ampliamenti,oggi si presenta come un insieme eterogeneo di volumi, disorganici nell’aspetto ed interessati da importanti criticità: • prestazioni energetiche largamente inadeguate; • insufficiente resistenza alle azioni sismiche; • inefficiente distribuzione interna degli ambienti e delle funzioni. Partendo da un’analisi che dal complesso ospedaliero si estende sull’intera area di Castel San Pietro Terme, è stato definito un progetto che tiene conto delle peculiarità e delle criticità del luogo. Il progetto propone la riqualificazione dell’area antistante l’ingresso storico dell’ospedale tramite il collegamento diretto al parco fluviale, oggi interrotto da viale Oriani e da un parcheggio. Sul complesso edificato viene invece progettato un insieme di interventi differenziati, che rispondono all’obiettivo primario di adattare il polo ospedaliero a nuove funzioni sanitarie. La riorganizzazione prevede: • L’eliminazione del reparto di chirurgia; • L’adeguamento delle degenze a funzioni di hospice e lungodegenza per malati terminali; • L’ampliamento del progetto Casa della Salute che prevede locali ambulatoriali. Il progetto ha assunto questo programma funzionale,puntando a mantenere e riqualificare quanto più possibile l’esistente. E’ stato quindi previsto di: • Demolire il corpo del blocco operatorio. • Ridefinire volumetricamente il corpo delle degenze • Prevedere la costruzione di nuovi volumi per ospitare i poliambulatori. Per assicurare un adeguato livello di prestazioni,l’intervento ha puntato a far conseguire all’intero complesso la classe energetica A e ad adeguare la capacità di risposta al sisma, in particolare del corpo delle degenze, che presenta le condizioni più critiche. Le simulazioni eseguite con il software Termolog Epix3 attestano un valore di fabbisogno energetico finale pari a 5,10 kWh/m3 anno, con una riduzione del 92,7% rispetto ai livelli di consumo attuali. E' stata posta particolare attenzione anche al comfortdegli ambienti di degenza, verificato tramite l’utilizzo del software di simulazione energetica in regime dinamico IESVE che ha permesso di monitorare gli effetti ottenuti in relazione ad ogni scelta progettuale. I nuovi padiglioni sono stati progettati per integrare in modo funzionale i locali ambulatoriali ed alcuni ambienti dedicati alle terapie complementari per i lungodegenti. La tecnologia a setti portanti Xlam è stata preferita per la velocità di realizzazione. La sovrastante copertura costituita da una membrana di ETFE sostenuta da travi curve in legno lamellare, oltre ad assicurare il comfort ambientale tramite lo sfruttamento di sistemi passivi, permette di limitare i requisiti dell’involucro dei volumi sottostanti.
Resumo:
Viene proposta una possibile soluzione al problema del tracking multitarget, tramite una rete di sensori radar basata su tecnoligia ultra wide-band. L'area sorvegliata ha una superficie pari a 100 metri quadri e all'interno di essa si vuole tracciare la traiettoria di più persone.
Resumo:
I potenziali evocati visivi steady state (ssVEPs) consistono in una perturbazione dell’attività elettrica cerebrale spontanea e insorgono in presenza di stimoli visivi come luci monocromatiche modulate sinusoidalmente. Nel tracciato EEG si instaurano oscillazioni di piccola ampiezza ad una frequenza pari a quella dello stimolo. L’analisi nel dominio delle frequenze permette di mettere in evidenza queste oscillazioni che si presentano con un picco ben distinto in corrispondenza della frequenza dello stimolo. L’obiettivo di questo lavoro è quello di capire se la stimolazione transcranica in corrente continua (tDCS) ha degli effetti a breve e a medio termine sui SSVEPs. Si è studiato gli effetti della stimolazione anodica utilizzando un montaggio di stimolazione extra-cefalico (anodo posizionato su Oz e catodo sul braccio destro). L’esperimento prevede il flickering a 3 frequenze di interesse (12, 15, 20 Hz) di 3 quadrati colorati (rosso e giallo) su sfondo nero. Sono state quindi messe a confronto 4 condizioni operative: baseline, stimolazione sham, stimolazione anodica, condizione Post Anodica.L’esperimento è stato sottoposto a 6 soggetti di età tra i 21 e i 51 anni. Il segnale è stato acquisito da due canali bipolari localizzati nella regione occipitale (O1-PO7 e O2-PO8). È stato effettuato un filtraggio tra 3-60 Hz e a 50 Hz. Si sono stimate le PSD normalizzate rispetto alla condizione di riposo in baseline e le potenze nell’intorno della frequenze di interesse (12,15,20 Hz). I dati chiaramente artefattuali sono stati scartati mediante un’analisi esplorativa. Da qui è stato deciso di non includere nella statistica la stimolazione anodica. L’analisi statistica considera tre aspetti: effetto stimolazione, effetto frequenza ed effetto colore. In alcune configurazioni la stimolazione post anodica si è rivelata significativamente differente con ranghi medi delle colonne inferiori alle altre stimolazioni. Non ci sono differenze significative tra le frequenze. Il colore giallo è risultato significativamente maggiore al colore rosso.
Resumo:
Internet e turismo sono due settori che si intersecano profondamente e che da sempre risultano interconnessi. Grazie al progresso delle nuove tecnologie l’ambito turistico ha mutato profondamente i suoi connotati, sia da un punto di vista strutturale sia nella gestione e nella distribuzione delle informazioni. Con l’ingresso nell’era digitale, lo sviluppo delle ICT (Information and Communication Technologies) e l’avvento del web 2.0, la comunicazione turistica si è modificata in modo sostanziale: si è passati da una comunicazione monologica e unidirezionale da esperti a pubblico, a un dialogo tra le varie parti coinvolte, dove la centralità dell’utente/consumatore, che ha acquisito un ruolo proattivo e guadagnato il diritto di parola, si fa sempre più evidente. In particolare la comparsa del web sociale, che si contraddistingue per la sua forte dinamicità e un carattere collaborativo e comunitario, ha permesso lo sviluppo di modelli comunicativi originali, che sono riusciti ad apportare elementi innovativi e peculiari anche nel linguaggio del turismo, varietà linguistica già di per sé piuttosto particolare ed eterogenea. Tramite l’analisi della versione spagnola del portale di viaggi più famoso al mondo (Tripadvisor.es), si è cercato di evidenziare quali caratteristiche mostrate nei testi pubblicati in questo spazio fossero riconducibili all’influenza del linguaggio del turismo dei generi più tradizionali (guide, dépliant, cataloghi) e quali invece fossero gli elementi attribuibili al mezzo computer e quindi appartenessero alla sfera della comunicazione mediata dal computer.
Resumo:
Questa tesi presenta i risultati di una ricerca qualitativa condotta presso la scuola primaria Diego Fabbri di Forlì. Si è voluto indagare sul fenomeno della mediazione linguistica ad opera di bambini in relazione con la scelta del sistema scolastico italiano di impartire un’educazione di tipo interculturale. Ci si è quindi concentrati sul percorso di accoglienza riservato agli alunni stranieri neo-arrivati. In particolare si sono analizzate le strategie messe in atto dall’istituto e dagli insegnanti per favorire l’integrazione all’interno di classi multiculturali, nonché il ruolo riservato ai compagni, sia italiani che stranieri. La prima parte del testo costituisce un quadro teorico indirizzato a meglio comprendere gli obiettivi e i risultati dello studio. Il primo capitolo verte sulle tematiche dell’immigrazione e dell’integrazione. Vengono qui esposti i principali modelli di acculturazione sviluppati dai vari paesi del mondo e in diverse epoche storiche, con particolare riferimento al contesto europeo e alle scelte operate dall’Italia nei confronti degli stranieri presenti sul suo territorio. Il secondo capitolo presenta poi il tema dell’educazione interculturale. A partire da una riflessione concettuale e terminologica sulla dicotomia fra multicultura e intercultura, si analizza la linea di pensiero seguita dalla scuola italiana nella gestione della crescente diversità etnica e culturale all’interno delle classi. Il terzo capitolo affronta il fenomeno del child language brokering o mediazione linguistica ad opera di bambini. Ne sono valutati aspetti positivi e negativi, soffermandosi specialmente sulle particolarità del contesto scolastico e dell’interazione fra pari. Gli ultimi due capitoli riguardano invece la parte operativa del lavoro di ricerca. Nel quarto capitolo è presentata la metodologia applicata, con un approfondimento sulla combinazione delle tecniche dell’osservazione e dell’intervista e la conduzione di una ricerca con i bambini. Infine, nel quinto capitolo, sono analizzati i dati raccolti sul campo.
Resumo:
L’aterosclerosi rappresenta una delle malattie più diffuse in tutto il mondo ed è caratterizzata da infiammazione cronica delle arterie di grande e medio calibro. In Italia, per esempio, le conseguenze dell’aterosclerosi, quali infarti e ischemie, sono la principale causa di 224.482 decessi annui, pari al 38,8% del totale delle morti. Oltre all’aterosclerosi, una cardiomiopatia congenita abbastanza diffusa, soprattutto nei bambini, è la presenza di anomalie dei setti inter-atriali e inter-ventricolari, che seppure non siano molto pericolosi per la vita del paziente, possono portare a ipertensione polmonare. L’obiettivo di questa tesi è mostrare le tecnologie recenti utilizzati per la cura dell’aterosclerosi e per la rimozione delle placche ateromatose, e per la chiusura trans-catetere dei difetti inter-atriali e inter-ventricolari. Nel primo capitolo viene effettuata una concisa presentazione dell’anatomia e della fisiologia dell’apparato cardio-vascolare; nel secondo capitolo invece vengono prese in rassegna le patologie appena citate e le metodiche di imaging per la loro analisi, evidenziandone, per ognuna, pregi e difetti. Nel terzo capitolo verranno presentate tutte le tecnologie recenti per la cura dell’aterosclerosi, concentrandoci principalmente sulle arterie coronarie, che sono, statisticamente, le più colpite da questa patologia. Infine, sempre nel terzo capitolo, verranno presentati i dispositivi medici per la chiusura dei difetti inter-atriali e inter-ventricolari, chiamati informalmente “ombrellini". L’ultimo capitolo riguarderà un caso particolare, vale a dire il trattamento delle lesioni alle biforcazioni coronariche, che richiedono tecnologie per la cura leggermente diverse rispetto al trattamento di una lesione aterosclerotica di una singola arteria coronarica.