999 resultados para Campi di concentramento, Guerra civile spagnola, Letteratura sul franchismo
Resumo:
La VI regio augustea di Roma rappresenta uno dei settori urbani maggiormente investiti dalle modifiche radicali compiute dall’uomo nel processo di urbanizzazione della città che ne hanno modificato profondamente la situazione altimetrica e la conformazione originaria. Questi notevoli cambiamenti ebbero origine sin dall’età antica, ma si intensificarono profondamente soprattutto nel periodo rinascimentale quando a partire da Pio IV e soprattutto con Sisto V, attivo in tante altre zone della città, si svilupparono numerose opere di rinnovamento urbanistico che incisero notevolmente sul volto e sulle caratteristiche della zona in esame. A partire dal Rinascimento fino ad arrivare ai grandi scavi della fine del 1800 tutto il quartiere incominciò a “popolarsi” di numerosi edifici di grande mole che andarono ad intaccare completamente le vestigia del periodo antico: la costruzione del Palazzo del Quirinale e dei vari palazzi nobiliari ma soprattutto la costruzione dei numerosi ministeri e della prima stazione Termini alla fine dell’800 comportarono numerosi sventramenti senza la produzione di una adeguata documentazione delle indagini di scavo. Questa ricerca intende ricostruire, in un’ottica diacronica, la topografia di uno dei quartieri centrali della Roma antica attraverso l’analisi dei principali fenomeni che contraddistinguono l’evoluzione del tessuto urbano sia per quanto riguarda le strutture pubbliche che in particolar modo quelle private. Infatti, il dato principale che emerge da questa ricerca è che questa regio si configura, a partire già dal periodo tardo-repubblicano, come un quartiere a vocazione prevalentemente residenziale, abitato soprattutto dall’alta aristocrazia appartenente alle più alte cariche dello Stato romano; oltre a domus ed insulae, sul Quirinale, vennero costruiti lungo il corso di tutta l’età repubblicana alcuni tra i più antichi templi della città che con la loro mole occuparono parte dello spazio collinare fino all’età tardoantica, rappresentando così una macroscopica e costante presenza nell’ingombro dello spazio edificato.
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Lo scopo di questo lavoro di tesi è quello di indagare la fluidodinamica all’interna di un modello di una camera di una filtropressa. L’analisi del comportamento fluidodinamico all’interno delle filtropresse viene svolta al fine di comprendere meglio alcune problematiche relative alla gestione del processo. In particolare si è tentato di individuare le cause che inducono: 1.Rottura prematura delle tele, in particolar modo nelle camere iniziali; 2.Formazione di pannelli disomogenei che comporta complicazioni nei successivi processi (lavaggio, essiccamento, etc.). Tale studio è consistito nella determinazione e nell’analisi del campo di moto di una fase liquida all’interno di suddetta camera. I campi di moto sono stati acquisiti tramite la tecnica PIV (Particle Image Velocimetry).
Resumo:
Il documento di tesi è composto da tre capitoli, che in successione analizzano gli aspetti teorici del progetto fino ad arrivare all’implementazione vera e propria dell’applicazione. Nel primo capitolo vediamo definito il tema dell’accessibilità accennando alle normative presenti in Italia e all’estero sull’argomento. Successivamente viene spiegato il concetto di Smart City e le tecniche che vengono utilizzate allo scopo di migliorare la qualità di vita nelle città. Vengono introdotti i concetti di crowdsourcing e participatory sensing, ideologie alla base delle Smart City. Al termine del capitolo viene introdotto uno studio sul grado di accessibilità degli smartphone presenti oggi sul mercato, analizzando anche le tecnologie assistive disponibili per questi dispositivi. Nel secondo capitolo si descrivono le tecnologie e i servizi utilizzati durante la creazione del progetto. In particolare viene presentato Android ed il suo funzionamento, essendo quest’ultimo il sistema operativo per cui è stata sviluppata l’applicazione. In seguito troviamo una breve analisi di tutti i servizi impiegati nel progetto: Foursquare, Fusion Table e Google Maps. Infine vengono descritte le tecnologie intermedie utilizzate per far comunicare fra loro gli strumenti spiegati in precedenza. Nel terzo capitolo viene presentata in modo dettagliato l’implementazione del progetto. Inizialmente vengono definite le classi principali create per progettare le funzionalità di base del software e per interagire con i servizi scelti. Successivamente viene descritto il funzionamento e l’aspetto dell’applicazione sviluppata insieme a degli screenshot, che permetteranno al lettore di avere un riferimento visivo di ciò che è stato esposto nel corso della tesi.
Resumo:
La contaminazione chimica rappresenta uno dei rischi principali per la sicurezza alimentare e può arrecare anche gravi danni alla salute umana. Rientrano in questa tesi di dottorato tre famiglie di contaminanti: Micotossine, Metalli e Insetticidi. La ricerca di aflatossina B1 è stata effettuata su 90 confezioni di farina, sia biologici sia convenzionali. La presenza della micotossina è stata rilevata solo nelle farine di mais. Solo un campione di produzione convenzionale ha superato il limite di 2 ppb definito per legge. Il dato di maggior rilievo è stato che il quantitativo di 5 grammi di campionamento si è dimostrato non rappresentativo sul totale della confezione commerciale di farina. Più attendibile si è invece dimostrato un campionamento di 20 grammi. L’aflatossina M1 è stata ricercata in 58 campioni di latte di cui 35 sono risultati positivi. Tuttavia, i livelli riscontrati erano costantemente inferiori al limite previsto per legge. Sono stati sottoposti a estrazione e purificazione, e analizzati con metodica HPLC-FL per la ricerca di Ocratossina A, 114 campioni di bile, 35 campioni di plasma, 40 campioni di rene prelevati da polli in Giordania. Le analisi hanno fornito risultati costantemente negativi. Sono stati analizzati 72 campioni (30 di muscolo, 29 di fegato e 13 di rene) prelevati da 30 bovini nel macello di Irbid (Giordania), di età compresa tra 8 e 30 mesi e provenienti da allevamenti diversi, per la ricerca di 13 elementi essenziali e non essenziali. In questo studio nessun campione supera i livelli massimi stabiliti dalla normativa europea per quanto riguarda gli elementi considerati. Infine, sono stati analizzati 37 campioni di latte ovino e 31 campioni di latte bovino, prelevati in Giordania in diversi allevamenti, per la ricerca di 4 neonicotinoidi (imidacloprid, acetamiprid, thiamethoxam e thiacloprid). I campioni, analizzati con sistema HPLC/MS/MS, sono risultati costantemente negativi ai quattro neonicotinoidi ricercati.
Resumo:
Negli ultimi anni sono stati sintetizzati numerosi oligomeri e polimeri del tiofene che, grazie alle loro proprietà di semiconduttori, hanno trovano largo impiego in molti campi di interesse tecnologico come, ad esempio, transistor ad effetto di campo, diodi elettroluminescenti, dispositivi ottici non lineari e celle fotovoltaiche. Più recentemente, oligomeri tiofenici ossidati allo zolfo hanno trovato applicazione sia in campo elettronico, come materiali accettori in blenda con il poli(3-esiltiofene) (P3HT) usato come materiale donatore, in celle solari di tipo Bulk Hetero Junction (BHJ), ma anche in campo biologico come marcatori fluorescenti di proteine e oligonucleotidi. Tuttavia la sintesi di queste specie richiede condizioni di reazione spinte e al contempo rischiose dovute all’utilizzo in largo eccesso di agenti ossidanti molto forti. Uno degli obiettivi di questa tesi è stato lo sviluppo di metodi più versatili per la mono e di-ossidazione selettiva allo zolfo del tiofene di building-blocks dibromurati di diversa natura. Successivamente i building-blocks S-monossido e S,S-diossido derivati sono stati impiegati per la sintesi di oligomeri e polimeri tramite reazioni di cross-coupling Palladio catalizzate. I composti finali sono stati caratterizzati sia dal punto di vista spettroscopico UV-Vis che elettrochimico, mettendo in evidenza le relazioni che esistono fra gli andamenti dei dati sperimentali ottenuti con il diverso stato di ossidazione dei composti tiofenici diversamente sostituiti. Infine i composti finali sono stati testati sia in campo fotovoltaico che biologico.
Resumo:
Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.
Resumo:
In questo lavoro si conduce un’indagine sulle relazioni tra letteratura, diritto e scienze mediche all’interno del romanzo cosiddetto "giudiziario", sviluppatosi in Italia nel periodo compreso tra l’Unità e i primi anni del XX secolo. La nostra analisi si concentra in particolare sulla costruzione della figura del delinquente, intesa come prodotto specifico della suddetta relazione interdisciplinare. In questa prospettiva, abbiamo rilevato che la caratterizzazione di tale figura costituisce il principale tra i procedimenti narrativi osservabili in vari romanzi del periodo postunitario. Concentrandoci inoltre sulla definizione del genere, abbiamo affrontato l’ormai annoso dibattito sulla nascita (quando non sull’esistenza stessa) del poliziesco italiano, dimostrando come solo all’interno di una stretta relazione tra letteratura, diritto e scienze mediche sia possibile cogliere a pieno il valore di questi romanzi nel processo di costruzione dell’identità nazionale. Il lavoro è diviso in due parti. Nella prima, di carattere storico, si propone una nuova definizione del genere "giudiziario", dopo aver vagliato e discusso le ipotesi sino ad ora avanzate dalla critica. Nella seconda parte si affrontano due casi di studio esemplari: La colonia felice di Carlo Dossi e Il romanzo di Misdea di Edoardo Scarfoglio. Su ognuno di essi abbiamo condotto un’accurata analisi testuale, che ci ha permesso di esaminare la caratterizzazione delle diverse figure delinquenti dimostrando l’efficacia del metodo interdisciplinare adottato con particolare riguardo alle teorie di Cesare Lombroso.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
In corso di gravidanza normale avvengono modificazioni emodinamiche centrali e periferiche volte a garantire le crescenti richieste nutritive dell'unità feto-placentare. L’ecografia con mezzo di contrasto (CEUS-Contrast Enhanced Ultrasonography) a base di microbolle offre una nuova opportunità di monitorare e quantificare la perfusione utero-placentare in condizioni normali e patologiche. L’ecocardiografia è stata ampiamente usata in medicina umana per valutare l’adattamento morfo-funzionale cardiaco materno durante la gravidanza. Gli scopi di questo lavoro prospettico sono stati di applicare, per la prima volta nella specie equina, un mezzo di contrasto di II generazione (Sonovue®), al fine quantificare la perfusione utero-placentare in corso di gravidanza normale, valutandone gli effetti sul benessere materno-fetale e di descrivere le modificazioni nei parametri ecocardiografici morfometrici e funzionali cardiaci, in particolare relativi alla funzione del ventricolo sinistro nel corso di una gravidanza fisiologica. Due fattrici sane di razza Trottatore sono state monitorate ecograficamente in maniera seriale durante l’intero corso della gravidanza, tramite esame bidimensionale, ecocontrastografia dell'unità utero-placentare, flussimetria Doppler delle arterie uterine, ecocardiografia materna in modalità bidimensionale, M-mode, Doppler e Tissue Doppler Imaging. I neonati sono stati clinicamente monitorati e gli invogli fetali esaminati. Il pattern di microperfusione utero-placentare è valutabile quali-quantitativamente tramite la CEUS e dimostra un’aumento del flusso a livello di microvascolarizzazione uterina con l'avanzare della gravidanza; non è stata rilevata la presenza di microbolle a livello di strutture fetali nè effetti dannosi sul benessere materno-fetale. In questo studio sono state osservate delle modificazioni cardiache materne in corso di gravidanza fisiologica, relative all'aumento della FC, del CO ed in particolare all'aumento delle dimensioni dell'atrio sinistro ed a modificazioni nelle onde di velocità di flusso e tissutali di riempimento del ventricolo sinistro.
Resumo:
Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.
Resumo:
La fissazione esterna si propone come una metodica alternativa molto valida nel trattamento delle fratture di bacino e delle ossa lunghe, nel massimo rispetto delle parti molli e dell’osso, e nel recupero precoce del movimento articolare. I maggiori vantaggi nell’utilizzo dei fissatori esterni sono rappresentati: dalla possibilità di essere utilizzati in una gamma di situazioni complesse, nelle quali le tecniche tradizionali non danno buoni risultati (ad esempio fratture esposte), dalla semplicità del procedimento chirurgico, dal fatto che evitano un secondo tempo chirurgico per la rimozione dei mezzi di sintesi. Contrariamente a tutti i mezzi di sintesi inoltre, sono indicati nel caso di infezioni. A livello articolare invece, la loro presenza, contrariamente a un gesso, consente la mobilizzazione precoce, sia passiva che attiva, dell’arto interessato, fondamentale per una completa ripresa funzionale. L'esperienza di questa tesi ha mostrato che i criteri di valutazione di un sistema di fissazione esterna sono rappresentati da: stabilità dell’impianto, cioè la capacità del sistema di mantenere la riduzione ottenuta resistendo alle forze di sollecitazione nel tempo, deformabilità elastica dell’impianto, cioè la possibilità di consentire e promuovere micromovimenti a livello del focolaio di frattura, versatilità dell’impianto, cioè la possibilità di realizzare montaggi diversi per rispondere a specifiche richieste terapeutiche, massimo rispetto biologico da parte degli elementi di presa, con un’accettabile ingombro per evitare intolleranze soggettive e semplicità d’applicazione. Pertanto i vantaggi clinici sono: minima invasività, sintesi stabile, compressione inter-frammentaria, versatilità, mobilizzazione precoce e carico precoce. Il presente lavoro si è rivelato uno strumento utile per arrivare alla progettazione finale di un sistema circolare e di un sistema ibrido che possano rispondere entrambi a tutti i requisiti sopra elencati. Ha focalizzato innanzitutto la propria attenzione su un sistema circolare, con il fine ultimo di descrivere in quale modo esso risponde all’applicazione di differenti cicli di carico. La particolarità del sistema studiato è rappresentata dalla possibilità di combinare il sistema circolare con un dispositivo articolato di ginocchio, costituendo così un sistema ibrido di fissazione esterna. Il sistema ibrido ha unito la rigidezza garantita dal sistema monolaterale all’elasticità dei sistemi circolari, in modo tale che le forze, che altrimenti agirebbero sul focolaio di frattura, si possano scaricare sia sul dispositivo monolaterale sia sui cerchi. L’elaborato ha focalizzato quindi la sua attenzione sul sistema ibrido, formato dalla combinazione del sistema circolare e del dispositivo monolaterale articolato, con il fine ultimo di descrivere come anch’esso risponde all’applicazione di differenti cicli di carico.
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.
Resumo:
Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.