999 resultados para analisi numerica solai sezione mista
Resumo:
Lo scopo del progetto triennale del dottorato di ricerca è lo studio delle alterazioni genetiche in un gruppo di pazienti affetti da micosi fungoide ed un gruppo di pazienti affetti da sindrome di Sezary. Dalle biopsie cutanee è stato estratto il DNA e analizzato, comparandolo con DNA sano di riferimento, utilizzando la tecnica array-CGH, allo scopo di identificare la presenza di geni potenzialmente implicati nel processo di oncogenesi. Questa analisi è stata eseguita, per ogni paziente, su biopsie effettuate ad una fase iniziale di malattia e ad una fase di progressione della stessa. Sugli stessi pazienti è stata inoltre eseguita un’analisi miRNA. Si ipotizza che il profilo d’espressione dei miRNA possa infatti dare informazioni utili per predire lo stato di malattia, il decorso clinico, la progressione tumorale e la riposta terapeutica. Questo lavoro è stato poi eseguito su biopsie effettuate in pazienti affetti da sindrome di Sezary che, quando non insorge primitivamente come tale, si può considerare una fase evolutiva della micosi fungoide. La valutazione delle alterazioni genetiche, ed in particolare la correlazione esistente tra duplicazione e delezione genetica e sovra/sottoespressione genetica, è stata possibile attraverso l’interpretazione e la comparazione dei dati ottenuti attraverso le tecniche array-CGH e miRNA. Sono stati comparati i risultati ottenuti per valutare quali fossero le alterazioni cromosomiche riscontrate nei diversi stadi di malattia. L’applicazione dell’array-CGH e della metodica di analisi mi-RNA si sono rivelate molto utili per l’identificazione delle diverse aberrazioni cromosomiche presenti nel genoma dei pazienti affetti da micosi fungoide e sindrome di Sezary, per valutare la prognosi del paziente e per cercare di migliorare o trovare nuove linee terapeutiche per il trattamento delle due patologie. Lo studio di questi profili può rappresentare quindi uno strumento di grande importanza nella classificazione e nella diagnosi dei tumori.
Resumo:
La ricerca nasce da un lavoro di campo condotto nella provincia turca di Iğdır, un altopiano al confine con l'Armenia e il Nakhichevan, vicino alla Georgia e all'Iran, ma morfologicamente isolato dal resto della Turchia. Dopo due secoli alquanto turbolenti, la società locale è oggi caratterizzata dalla presenza di un’ampia componente turco-azera (sciita) e di un’altrettanto ampia componente turco-curda (sunnita shafiita). Inizialmente, la ricerca propone un’analisi diacronica di alcune rappresentazioni europee dell’altopiano, con particolare attenzione alle migrazioni (James Clifford, 1997, Routes: Travel and Translation in the Late Twentieth Century), ai confini, ai limiti e alle frontiere, quest’ultime intese come orizzonti dell’immaginario (Vincent Crapanzano, 2003, Imaginative Horizons: An Essay in Literary-Philosophical Anthropology). Quindi, prendendo spunto dall’inserimento nella società di Iğdır di un insegnante originario della Turchia centrale, analizzo la pratica dello spazio pubblico come fenomenologia delle forme di appartenenza e di resistenza ai gruppi locali. In questa sezione, dopo un capitolo di disamina dell’etnia azera, lo studio affronta i modi di abitare il territorio, con una prospettiva che unisce il centro urbano di Iğdır e, attraverso una fitta rete stradale e sociale, il paese di Ortaköy — alla cui analisi dell'organizzazione sociale dello spazio, delle forme di appartenenza e di resistenza, dedico l’ultima riflessione.
Resumo:
La tesi si articola in quattro parti. La prima, di stampo femminista, propone una panoramica sul femminicidio come fenomeno sociale e sulla relativa situazione giuridica internazionale. La seconda tratta in generale la stampa di qualità, supporto mediatico prescelto per l'analisi linguistica. La terza parte propone un micro-corpus di stampa italiana sul tema del femminicidio e la quarta un micro-corpus di stampa francese sull' "Affaire DSK", entrambe corredate di un' analisi del componente lessicale e discorsivo (Analyse du discours). E' un lavoro comparativo, i cui risultati hanno permesso di mettere in evidenza e provare come la stampa di qualità italiana e francese tendano a veicolare in modo implicito un'immagine sessista, sterotipata e discriminatoria del femminicidio e della vittima di violenza.
Resumo:
L'elaborato intende proporre un'analisi sociolinguistica della comunità portoricana di New York. Il lavoro di ricerca, condotto proprio nella città di New York, ha lo scopo di fornire una prospettiva, il più ampia possibile, sull'uso dell'inglese, dello spagnolo e delle pratiche linguistiche legate allo Spanglish da parte di questa specifica comunità ispanofona. Lo studio si è concentrato prevalentemente sull'analisi del comportamento linguistico di due generazioni di portoricani, i cui usi linguistici variano in relazione a specifici parametri riscontrati all'interno dell'organizzazione sociale.
Resumo:
L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.
Resumo:
Nell’autunno del 2011 due eventi meteorologici estremi caratterizzati da intense precipitazioni hanno interessato la Liguria. Nella giornata del 25 ottobre si è verificato sul Levante ligure un evento alluvionale di rilevante entità, determinato dalla formazione di un intenso sistema convettivo che ha coinvolto l’area compresa tra il Tigullio, le Cinque Terre ed il bacino del Magra. Un altro episodio di forte maltempo si è verificato tra il 3 e il 9 novembre 2011, e in particolare il forte sistema convettivo che ha interessato Genova la mattina del 4 novembre, in cui avvenne l’esondazione in alcuni punti del torrente Bisagno e del rio Fereggiano. Tuttavia, nel corso del lungo periodo perturbato si sono registrati vari episodi di esondazione, localizzati principalmente in zone golenali agricole, anche sui versanti padani della regione, oltre a numerosi casi di smottamenti e frane. I casi sopra citati sono stati studiati facendo innanzitutto un’accurata analisi meteorologica a scala sinottica e alla mesoscala, esaminando in particolar modo i meccanismi che hanno portato l’innesco dei due sistemi temporaleschi. In secondo luogo, utilizzando anche dati osservativi disponibili, si è voluto mettere in evidenza la reale e significativa evoluzione nel tempo e nello spazio dei dati pluviometrici delle stazioni al suolo, e dei parametri fisici più importanti, come ad esempio la direzione e l’intensità del vento. Infine, utilizzando simulazioni numeriche dei modelli sviluppati all’ISAC-CNR di Bologna (BOLAM e MOLOCH), ci si è posti l’obiettivo di verificare la loro sensibilità alla risoluzione e ad altri aspetti numerici e fisici, in particolare per quanto riguarda i dati relativi alla precipitazione. I modelli, oltre a riprodurre la dinamica degli eventi in maniera fisicamente coerente anche se non del tutto accurata, sono stati utilizzati, previo confronto con le osservazioni, per verificare alcune ipotesi formulate relative ai processi fisici responsabili dell’intensità della precipitazione, come ad esempio la presenza del flusso (outflow) di aria fredda proveniente dalla cold pool in relazione con le correnti caldo-umide negli strati più bassi (Low Level Jet, LLJ), e la formazione di una zona di convergenza nella quale è più alta la probabilità che si sviluppino sistemi convettivi organizzati.
Resumo:
Nel 2011 si sono registrati in Italia 205.638 incidenti stradali con lesioni a persone. Il numero dei morti (entro il 30° giorno) è stato di 3.860, quello dei feriti ammonta a 292.019.Rispetto all’obiettivo fissato dall’Unione Europea nel Libro Bianco del 2001, che prevedeva la riduzione della mortalità del 50% entro il 2010, benché sia vicina a questo traguardo, l’Italia non ha ancora raggiunto tale livello (Figura I.1). Sulle strade urbane si sono verificati 157.023 incidenti, con 213.001 feriti e 1.744 morti. Sulle Autostrade gli incidenti sono stati 11.007, con 18.515 feriti e 338 decessi. Sulle altre strade extraurbane, ad esclusione delle Autostrade, si sono verificati 37.608 incidenti, con 65.503 feriti e 1.778 morti. L’indice di mortalità mostra che gli incidenti più gravi avvengono sulle strade extraurbane (escluse le autostrade), dove si registrano 4,7 decessi ogni 100 incidenti. Gli incidenti sulle strade urbane sono meno gravi, con 1,1 morti ogni 100 incidenti. Sulle Autostrade tale indice è pari a 3,1. L’indice di mortalità si mantiene superiore alla media giornaliera (1,9 decessi ogni 100 incidenti) per tutto l’arco di tempo che va dalle 21 alle 7 del mattino, raggiungendo il valore massimo intorno alle 5 del mattino (6,0 decessi ogni 100 incidenti). La domenica è il giorno nel quale si registra il livello più elevato dell’indice di mortalità (2,8 morti per 100 incidenti). In 7 casi su 10 (69,7%) le vittime sono i conducenti di veicoli, nel 15,3% i passeggeri trasportati e nel 15,1% i pedoni. La categoria di veicolo più coinvolta in incidente stradale è quella delle autovetture(66,1%), seguono motocicli (14,0%), i ciclomotori (5,4%) e le biciclette (4,5%).
Resumo:
Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.
Resumo:
Descrizione, debug ed implementazione di un sistema di analisi della combustione Real-Time.
Resumo:
Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare.
Resumo:
Nella presente Tesi è stato fatto un lavoro di analisi storica e costruttiva di un aggregato in muratura del centro storico della città di Crevalcore per determinarne le vulnerabilità e ipotizzare cinematismi di danno di primo modo sulla base delle carenze strutturali rilevate. Tutto ciò al fine di sviluppare strumenti, in questo caso indici adimensionali, utili sia alle amministrazioni, sia ai progettisti per monitorare e ridurre nel tempo la vulnerabilità al sisma degli aggregati in muratura.
Resumo:
La presente tesi tratta il comportamento meccanico delle fasce di piano in muratura composite. Con tale termine ci si riferisce alle fasce di piano che hanno al di sotto un elemento portante in conglomerato cementizio armato, come ad esempio cordoli o solai. Assieme ai maschi murari, le fasce di piano costituiscono gli elementi portanti di una parete in muratura. Tuttavia, in caso di analisi sismica di un edificio in muratura, l’effetto fornito da tali elementi è trascurato e si considera solamente il contributo dei maschi murari. Ciò è dovuto anche alla scarsa conoscenza che ancora oggi si possiede sul loro comportamento meccanico. Per questo motivo diversi gruppi di ricerca tutt’ora sono impegnati in tale studio. In particolare, il lavoro di questa tesi, s’inserisce nel più ampio progetto di ricerca condotto dalla professoressa Katrin Beyer, direttrice del Laboratorio di Ingegneria Sismica e Dinamica Strutturale del Politecnico di Losanna (Svizzera).
Resumo:
Si mostra l’evoluzione di un modello fisico-matematico atto alla ricostruzione dei fussi nell’intera regione Emilia Romagna partendo da due sorgenti di dati: dati sparsi con bassa risoluzione spaziale senza errore e dati distribuiti in tutta la regione con percentuale rispetto alla totalità di autoveicoli ignota. Si descrive l’elaborazione dei dati e l’evoluzione del modello nella sua storicità fino ad ottenere un buon risultato nella ricostruzione dei fussi. Inoltre si procede ad analizzare la natura dei dati e la natura del problema per ottenere una buona soluzione in grado di descrivere il sistema e per essere facilmente estesa ad altre regioni. Dopo aver definito un metodo di validazione si confrontano svariati risultati di modelli differenti mostrando un’evoluzione nella ricerca di un modello che risolva il problema con tempi computazionali accettabili in modo da ottenere un sistema real-time.