151 resultados para Minuzie impronte fusione doppia-identità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato tratterà lo stato della tecnologia nel campo dell'acquisizione e del monitoraggio di segnali fisiologici grazie all'utilizzo di sistemi indossabili. Nel primo capitolo della tesi saranno introdotte le idee e le motivazioni che hanno spinto la ricerca verso una maggiore integrazione tra uomo, tecnologia e qualità della vita. Verranno introdotti poi alcuni dispositivi che spiccano per le loro particolarità e qualità che al meglio rispecchiano la fusione tra ingegneria e medicina. Il secondo capitolo descriverà alcuni dei sensori e in generale le tecnologie utilizzate in questi dispositivi. L'ultima parte della tesi tratterà, attraverso il concetto di mHealth, come questi nuovi strumenti sono e dovrebbero essere regolamentati dagli enti preposti, sottolineando quali vantaggi e svantaggi la direzione che la tecnologia ha intrapreso in questo settore potrà in futuro portare alla salute, alla sanità pubblica e alla qualità della vita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Megalopoli Bogotà si è svelata una realtà articolata e complessa, ricca di contraddizioni che convivono in un'apparente armonia. Le difformità di situazioni legate alla città sono causa ed effetto di una sorta di dualismo urbano in cui ogni aspetto sembra trovare la sua ragione nella propria antitesi. La stessa contraddizione è stata letta nel tessuto urbano in cui il rigido schema a griglia, proprio delle fondazioni coloniali, si è mostrato irregolare a fronte di limiti topografici del territorio, di espansioni urbane incontrollate, e di realtà intrinseche proprie di isole urbane. Questo è stato il punto di partenza per la comprensione della realtà urbana, ed attraverso una ricerca che è, mano a mano, scesa di scala, si è tentato di interpretare e risolvere le criticità emerse. A partire da queste considerazioni si è configurato un metaprogetto con la volontà di ricucire la struttura urbana interrotta, attraverso un sistema di segni urbani, in cui l'identità della griglia è stata adottata come principio per la ricomposizione delle parti. Grazie al conoscimento della città è stato possibile identificare un'area di studio, nel punto di convergenza dei vari tessuti è emerso un settore che non ha saputo, o potuto, rispondere all'esigenza di riconnettere le diverse parti, sfuggendo così alla struttura urbana e presentandosi come elemento di negazione della griglia. Grazie allo svoglimento della tesi all'estero è stato possibile comprendere, tramite una ricerca svolta in archivio, come l'area si fosse configurata nel tempo, e tramite ripetuti sopraluoghi percepire peculiarità e criticità del luogo; infine, la presenza della Piazza di Mercato Paloquemao, elemento emblematico a livello sia urbano sia sociale, ha condotto la ricerca sino allo studio dello spazio pubblico nella città. Si è giunti, in questo percorso, alla progettazione di una nuova centralità per l'area, in supporto all'esistente Piazza di Mercato, con l'ambizione di poter risolvere le problematiche di un luogo costituito da convergenze urbane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi 10 anni i blooms attribuibili alla dinoflagellata bentonica Ostreopsis cf. ovata sono aumentati in termini di frequenza ed intensità lungo le coste del Mediterraneo, avendo ripercussioni negative sulla salute umana e forti impatti sulle comunità marine bentoniche, ciò a seguito della produzione di potenti tossine (composti palitossina-simili) da parte della microalga. Tra i fattori ecologici che innescano o regolano le dinamiche dei bloom tossici le interazioni tra microalghe e batteri sono in misura sempre maggiore oggetto di ricerca. In questo studio è stata analizzata la struttura filogenetica della comunità batterica associata ad O. cf. ovata in colture batch e valutate le dinamiche successionali della stessa in relazione alle differenti fasi di crescita della microalga (oltre che in relazione alle dinamiche di abbondanza virale). Lo studio filogenetico è stato effettuato tramite l’ausilio di metodiche molecolari di sequenziamento di next generation (Ion Torrent). Le abbondanze dei batteri e delle particelle virali sono state determinate tramite microscopia ad epifluorescenza; l’abbondanza cellulare algale è stata stimata tramite metodo Uthermohl. Il contributo della frazione batterica ad elevata attività respiratoria è stato determinato tramite doppia colorazione con coloranti DAPI e CTC. Dai dati emersi si evince che la comunità batterica attraversa due fasi di crescita distinte, una più marcata e concomitante con la fase esponenziale di O. cf. ovata, l'altra quando la microalga è in fase media stazionaria. Per quanto concerne la composizione filogenetica della comunità sono stati rilevati 12 phyla, 17 classi e 150 generi, sebbene i dati ottenuti abbiano rilevato una forte dominanza del phylum Proteobacteria con la classe Alphaproteobacteria, seguita dal phylum Bacteroidetes con la classe Sphingobacteria. Variazioni nella struttura filogenetica della comunità batterica, a livello di generi, tra le diverse fasi di crescita della microalga ha permesso di evidenziare ed ipotizzare particolari interazioni di tipo mutualistico e di tipo competitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente elaborato analizza l'importanza di un'adeguata rappresentazione di personaggi appartenenti allo spettro LGBT all'interno di programmi televisivi nordamericani, in particolare Orange Is The New Black e Orphan Black. Lo scopo della tesi è quello di provare l'importanza della rappresentazione nella costruzione dell'identità personale di ognuno, e nella lotta contro le discriminazioni di genere e orientamento sessuale. Le tesi si apre con un excursus teorico sul termine e il concetto di rappresentazione, soprattutto relativo all'ambito della televisione. Successivamente, vengono analizzati i vari tipi di rappresentazione all'interno nei due programmi televisivi presi in esame. La ricerca si conclude con una valutazione degli effetti e delle reazioni del pubblico a entrambi i telefilm e, infine, con alcune considerazioni personali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Riflessione sull'identità partenopea attraverso l'uso del dialetto nelle opere di Eduardo De Filippo. Confronto con "La Tempesta" di Shakespeare e la traduzione russa di "Natale in casa Cupiello".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo principale di questo lavoro di tesi è valutare la robustezza delle tecniche di riconoscimento del volto allo stato dell’arte rispetto a modifiche delle immagini operate tramite morphing. Tale tipo di alterazioni potrebbero essere operate con scopi criminali legati all’utilizzo di documenti di identità con elementi biometrici e, in particolare, del passaporto elettronico che utilizza il volto come caratteristica biometrica primaria per la verifica di identità. Il lavoro di tesi ha richiesto quindi: - La creazione di immagini morphed a partire da volti di diversi soggetti; - L’esecuzione di test con software commerciali per il riconoscimento del volto al fine di valutarne la robustezza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I lantibiotici sono molecole peptidiche prodotte da un gran numero di batteri Gram-positivi, posseggono attività antibatterica contro un ampio spettro di germi, e rappresentano una potenziale soluzione alla crescente problematica dei patogeni multi-resistenti. La loro attività consiste nel legame alla membrana del bersaglio, che viene quindi destabilizzata mediante l’induzione di pori che determinano la morte del patogeno. Tipicamente i lantibiotici sono formati da un “leader-peptide” e da un “core-peptide”. Il primo è necessario per il riconoscimento della molecola da parte di enzimi che effettuano modifiche post-traduzionali del secondo - che sarà la regione con attività battericida una volta scissa dal “leader-peptide”. Le modifiche post-traduzionali anticipate determinano il contenuto di amminoacidi lantionina (Lan) e metil-lantionina (MeLan), caratterizzati dalla presenza di ponti-tioetere che conferiscono maggior resistenza contro le proteasi, e permettono di aggirare la principale limitazione all’uso dei peptidi in ambito terapeutico. La nisina è il lantibiotico più studiato e caratterizzato, prodotto dal batterio L. lactis che è stato utilizzato per oltre venti anni nell’industria alimentare. La nisina è un peptide lungo 34 amminoacidi, che contiene anelli di lantionina e metil-lantionina, introdotti dall’azione degli enzimi nisB e nisC, mentre il taglio del “leader-peptide” è svolto dall’enzima nisP. Questo elaborato affronta l’ingegnerizzazione della sintesi e della modifica di lantibiotici nel batterio E.coli. In particolare si affronta l’implementazione dell’espressione eterologa in E.coli del lantibiotico cinnamicina, prodotto in natura dal batterio Streptomyces cinnamoneus. Questo particolare lantibiotico, lungo diciannove amminoacidi dopo il taglio del leader, subisce modifiche da parte dell’enzima CinM, responsabile dell’introduzione degli aminoacidi Lan e MeLan, dell’enzima CinX responsabile dell’idrossilazione dell’acido aspartico (Asp), e infine dell’enzima cinorf7 deputato all’introduzione del ponte di lisinoalanina (Lal). Una volta confermata l’attività della cinnamicina e di conseguenza quella dell’enzima CinM, si è deciso di tentare la modifica della nisina da parte di CinM. A tal proposito è stato necessario progettare un gene sintetico che codifica nisina con un leader chimerico, formato cioè dalla fusione del leader della cinnamicina e del leader della nisina. Il prodotto finale, dopo il taglio del leader da parte di nisP, è una nisina completamente modificata. Questo risultato ne permette però la modifica utilizzando un solo enzima invece di due, riducendo il carico metabolico sul batterio che la produce, e inoltre apre la strada all’utilizzo di CinM per la modifica di altri lantibiotici seguendo lo stesso approccio, nonché all’introduzione del ponte di lisinoalanina, in quanto l’enzima cinorf7 necessita della presenza di CinM per svolgere la sua funzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di individuare per la città di Cavezzo ed il suo centro urbano, colpito dal sisma del 20 maggio 2012, le strategie per la ricostruzione e la definizione delle proprie forme urbane. In particolare, ci si concentrerà sul nuovo luogo dell'identità urbana, ovvero piazza Matteotti, da sempre spazio pubblico riconosciuto, per il quale si propone un intervento di riqualificazione. Questo avverrà tramite il progetto dello spazio teatrale, che, si inserisce nel contesto, come nuovo elemento di lettura e connessione. Il primo capitolo di questo volume raccoglie alcune informazioni relative al territorio della città di Cavezzo, necessarie alla comprensione delle scelte progettuali, descritte per la scala urbana, nel capitolo secondo. Infine, la seconda parte del volume affronta i temi progettuali per piazza Matteotti e gli approfondimenti, ad essa legati, sullo spazio teatrale, sulle sue forme e sulla sua struttura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sostituzione di tessuto urbano nella città di Mirandola. Tentativo di ridefinizione dell'identità del viale di collegamento fra centro storico e stazione attraverso lo studio della teoria della città per parti.