148 resultados para Devaluación de la moneda--Perú
Resumo:
Questo volume di tesi descrive lo sviluppo di un'applicazione cross-platform per la raccolta dati sull'accessibilità urbana. E' stato creato un Pervasive GWAP strutturato in modo tale da raccogliere, tramite un gioco in mixed-reality, dati sulla geolocalizzazione delle barriere/facility architettoniche in ambiente urbano, in modo da mappare il territorio. Il gioco è rivolto a bambini accompagnati da insegnanti/genitori e prevede l'utilizzo di dispositivi mobili quali tablet e smartphone con sistema operativo Andoid. E' stata utilizzata la funzione GPS dei dispositivi per la geolocalizzazione dei giocatori e delle barriere/facility segnalate e la CAMERA per lo scan dei Qr-Code utilizzati come incentivo per intrattenere gli utenti. L'applicazione è scritta utilizzando tecnologie web quali HTML, CSS, JavaScript, PHP, JSON e grazie all'utilizzo del framework Apache Cordova è stato possibile lo sviluppo multipiattaforma. Questo strumento permette di utilizzare tecnologie web per lo sviluppo di applicazioni mobile, generando codice nativo supportato da sistemi operativi quali Android, iOS, BlackBerry.
Resumo:
Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.
Resumo:
La prospettiva della teranostica è quella di effettuare contemporaneamente diagnosi e cura, individuando le singole particelle tumorali. Questo è possibile grazie a nanoparticelle magnetiche, entità multifunzionali rivestite da un polimero, accompagnate nel luogo di interesse mediante un campo magnetico esterno. Per quanto riguarda la diagnosi possono essere utilizzate come agenti nella risonanza magnetica nucleare per aumentare il contrasto dell’immagine e consentire una migliore rivelazione del tumore. Per quanto riguarda la terapia esse sono utilizzate per l’ipertermia magnetica, tecnica basata sul riscaldamento mediante l’applicazione di un debole campo magnetico alternato dotato di un’opportuna frequenza. In questo modo le cellule tumorali, essendo più sensibili al calore rispetto a quelle sane, vengono distrutte, una volta raggiunta una temperatura locale tra i 41 e i 46°C. Un’altra grande applicazione terapeutica è il rilascio controllato e mirato dei farmaci (drug target delivery). Infatti un opportuno rivestimento polimerico consente di coniugare alla particella dei medicinali chemioterapici che, una volta raggiunta la zona tumorale, possono essere rilasciati nel tempo, permettendo dunque la somministrazione di una minor dose e un’azione più mirata rispetto ai classici trattamenti. I materiali maggiormente utilizzati per la sintesi delle nanoparticelle sono gli ossidi di ferro (come la magnetite Fe3O4 e la maghemite γ − Fe2O3) e l’oro. Tuttavia, nonostante i possibili vantaggi, questi trattamenti presentano degli effetti collaterali. Trattandosi infatti di particelle ultrafini, dell’ordine dei nanometri, possono migrare all’interno del corpo umano raggiungendo organi bersaglio e comprometterne il loro funzionamento. La teranostica, però, è una disciplina molto studiata e in via di sviluppo; si spera che da qui a breve sia possibile un utilizzo concreto di questi nuovi metodi, riducendo al minimo la tossicità per il corpo umano.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.
Resumo:
Lo studio, oggetto della presente tesi, si propone di affrontare e approfondire le tecniche di rilevamento impiegate nell'ambito di contesti idraulici per la valutazione del dislivello fra punti, allo scopo di consentire il regolare deflusso delle acque. Il primo capitolo si apre introducendo la geodesia, per poi definire le varie tipologie di superfici e sistemi di riferimento, a cui le quote ottenute nella misurazione dei dislivelli si riferiscono. Il secondo capitolo descrive le tecniche impiegate nella misurazione dei dislivelli, soffermandosi sulla livellazione geometrica “dal mezzo”di alta precisione e su quella trigonometrica, impiegata principalmente per rilievi di precisione, come quello idraulico preso in esame, soprattutto per l’attraversamento di aree impraticabili quali corsi fluviali o piccoli bracci di mare. Il terzo capitolo descrive la strumentazione impiegata per eseguire le tecniche definite nel capitolo precedente, soffermandoci su quella impiegata nel caso-studio. Il quarto capitolo analizza il caso-studio da me effettuato, il cui obiettivo riguarda il collegamento altimetrico tra le due sommità delle aste idrometriche, installate rispettivamente presso Molo Vecchio e il torrente Acquanegra per il controllo del livello del lago di Monate (Provincia di Varese).
Resumo:
L'elaborato ha come oggetto lo Spanglish, lingua ibrida nata in seguito al bilinguismo negli Stati Uniti. L'elaborato, in particolare, propone un'analisi di tale fenomeno a partire dalle origini fino a giungere alla discussa traduzione del Don Quijote de La Mancha per mano di Ilan Stavans.
Resumo:
Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.
Resumo:
Le epidemie tossinfettive dovute al consumo di prodotti vegetali freschi hanno subito negli ultimi anni un rilevante incremento a causa della crescente centralizzazione delle produzioni in prossimità di aree destinate alle produzioni animali, all’aumento dell’importazione e del trasporto di prodotti provenienti da grandi distanze, all’aumento del settore dei prodotti di IV gamma e all’incremento delle fasce di popolazione più sensibili ai principali patogeni degli alimenti. I dati recenti indicano che, negli USA, le tossinfezioni associate al consumo di vegetali freschi sono passati dallo 0.7% del totale negli anni ‘70, al 6% negli anni ’90, al 13% nei primo anni 2000, fino a rappresentare nel 2014 il 46% delle tossinfezioni complessive. Il consumo di pomodori freschi è stato implicato in numerose tossinfezioni, anche di ampie dimensioni, in diverse aree del globo. Oltre alle salmonellosi, i pomodori costituiscono importanti veicoli per la trasmissione per altri patogeni quali Listeria monocytogenes, Escherichia coli VTEC e Yersinia enterocolitica. Gli studi sulla composizione quali-quantitativa dei microrganismi presenti sui pomodori al momento della loro commercializzazione sono pochissimi. Per queste ragioni, nel mio elaborato mi sono occupata di valutare alcuni parametri microbiologici campionando la superficie di pomodori a grappolo di diversa tipologia, prelevati dai banchi della distribuzione, venduti sfusi o preconfezionati. Le analisi condotte erano mirate alla ricerca della carica batterica totale, di Escherichia coli, enterobatteriacee, stafilococchi, muffe e lieviti. Dai risultati ottenuti si evince che non esistono effettivamente delle differenze significative sulle caratteristiche microbiologiche dei pomodori in base al tipo di confezionamento. Inoltre si può anche osservare come le cariche microbiche individuate siano relativamente contenute e paragonabili a quelle riportate in letteratura per prodotti analoghi considerati a basso rischio.
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
Fino a pochi anni fa, usare i trasporti pubblici poteva essere fonte di confusione e richiedere la comprensione del sistema dei trasporti locali. Più tardi, con la diffusione di dispositivi con localizzazione GPS, reti dati cellulare e Google Maps (inizialmente Google Transit), tutto è cambiato, rendendo possibile la pianificazione di un viaggio mentre si è fuori casa. Nonostante Google Maps disponga di indicazioni stradali più o meno in tutto il mondo e mostri molte informazioni, alcune funzionalità, come l’integrazione degli orari in tempo reale, non sono disponibili in tutte le città, ma sono basate su accordi con le agenzie dei trasporti locali. GoGoBus è un’applicazione Android per l’ausilio al trasporto nella città di Bologna. Combinando diversi servizi, GoGoBus si rivolge a svariati tipi di utilizzatori: offre la pianificazione per i meno pratici del sistema e coloro che usano i trasporti pubblici raramente, dispone di orari in tempo reale per chi usa i mezzi frequentemente, e in più traccia la posizione dell’autobus, ha un supporto vocale e un’interfaccia semplice per persone con disabilità. Progettata appositamente per ipovedenti, l’aspetto più innovativo dell’applicazione è il suo supporto durante il percorso sull’autobus, integrato alla pianificazione del tragitto e agli orari aggiornati in tempo reale. Il sistema traccia la posizione dell’autobus attraverso il GPS del dispositivo mobile, la cui posizione è usata sia per riconoscere quando una fermata viene superata, sia per mostrare informazioni utili come la distanza dalla prossima fermata, il numero di fermate e i minuti rimanenti prima di scendere, e soprattutto notificare l’utente quando deve scendere. L’idea dietro GoGoBus è incrementare la fruibilità dei trasporti pubblici per non vedenti, ma anche per persone che li usano di rado, aumentando ampiamente la loro indipendenza, allo stesso tempo migliorando la qualità del servizio per chi usa i mezzi quotidianamente.
Resumo:
Il presente elaborato, mediante una panoramica sull’intero processo di recupero della cartografia storica con le moderne tecniche geomatiche (con particolare attenzione rivolta alla fase di elaborazione in ambiente digitale), e l’applicazione ad un caso di studio (l’ Ichnoscenografia di Bologna del 1702) vuole mostrare l’importanza dell’utilizzo di tali tecniche, unitamente alla loro versatilità per la salvaguardia, lo studio e la diffusione del patrimonio cartografico storico. L’attività principale consiste nella creazione di un modello 3D georeferenziato della Bologna del 1702, a partire dalla carta del de’ Gnudi, e della sua successiva rappresentazione mediante modalità di Realtà Virtuale. L’immediatezza della comunicazione con varie forme di rappresentazione consente non solo di apprezzare e scoprire in modo nuovo una carta antica, ma anche di effettuare analisi più specifiche, ad esempio in merito all’evoluzione del tessuto storico della città, oppure studi sui metodi di rappresentazione che venivano utilizzati all’epoca della redazione della carta, completamente differenti dagli attuali, soprattutto in termini di precisione. La parte finale della trattazione esamina la possibilità per il fruitore della ricerca di interrogare un database multimediale sulla città e di immergersi in modo virtuale in ambientazioni non più esistenti.
Resumo:
degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, è stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosità e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione è stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro più facile risoluzione. I risultati sono stati espressi in termini di profili di velocità e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi è stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli è stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilità delle chiome degli alberi è stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che è stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non è ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.
Resumo:
La seguente tesi si sviluppa in tre parti: un'introduzione alle simmetrie conformi e di scala, una parte centrale dedicata alle anomalie quantistiche ed una terza parte dedicata all'anomalia di traccia per fermioni. Nella seconda parte in particolare si introduce il metodo di calcolo alla Fujikawa e si discute la scelta di regolatori adeguati ed un metodo per ottenerli, si applicano poi questi metodi ai campi, scalare e vettoriale, per l'anomalia di traccia in spazio curvo. Nell'ultimo capitolo si calcolano le anomalie di traccia per un fermione di Dirac e per uno di Weyl; la motivazione per calcolare queste anomalie nasce dal fatto che recenti articoli hanno suggerito che possa emergere un termine immaginario proporzionale alle densità di Pontryagin nell'anomalia di Weyl. Noi non abbiamo trovato questo termine e il risultato è che l'anomalia di traccia risulta essere metà di quella per il caso di Dirac.