927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
In questo lavoro è presentata una proposta di traduzione del racconto Und nun schieben sie mich ab (Biondi, 1985: 168- 174), di Franco Biondi, un autore di origini italiane residente in Germania dal 1965 (Amodeo, 2007: 6). Data la sua biografia, Biondi è un autore emblematico tanto della letteratura italiana della migrazione, quanto della letteratura dell’immigrazione in Germania, a testimonianza di come questa letteratura sia riuscita a superare i confini letterari nazionali per entrare a far parte di una «letteratura mondiale della transculturalità» (Amodeo, 2000: 327) . Considerati il terreno comune su cui si sono sviluppate le opere di autori di varie nazionalità in Germania, e l’eterogeneità dei contesti letterari e sociali degli autori italiani nei vari Paesi, si è ritenuto più efficace focalizzare i capitoli teorici del lavoro sulla letteratura dell’immigrazione in Germania, con un’attenzione particolare agli autori di origine italiana. La proposta di traduzione sarà preceduta da un inquadramento storico degli albori della letteratura dell’immigrazione in Germania, nata negli anni Sessanta del Novecento. Da lì si procederà presentando gli sviluppi di questa letteratura fino agli anni più recenti: si partirà dalla letteratura dell’immigrazione in Germania prodotta da autori di varie nazionalità, entrando poi nel merito degli autori di origine italiana attivi in Germania. Il terzo capitolo è dedicato a Franco Biondi, di cui saranno presentate una breve biografia e le opere più significative. Il quarto e il quinto capitolo sono dedicati interamente al racconto Und nun schieben sie mich ab (Biondi, 1985): in particolare, il quarto capitolo contiene un’analisi del tema e del contenuto del racconto, contestualizzato poi all’interno della raccolta “Passavantis Rückkehr” (Ibid.) e dell’opera dell’autore; in questo capitolo inoltre viene presentata un’analisi linguistica e stilistica del racconto. Il quinto capitolo contiene la proposta di traduzione, seguita da un commento della traduzione e delle strategie utilizzate.
Resumo:
Dietro ad ogni volo di linea è presente una serie di attività collaterali fondamentali, quali ad esempio un'analisi dettagliata della tratta da percorrere al fine di pianificare la rotta ottimale. In questa tesi verranno pertanto evidenziate le varie problematiche e le difficoltà che si possono riscontrare nel processo di pianificazione di una rotta. Prima verranno introdotti gli organi che regolamentano l’aviazione civile mondiale ed in seguito l’organizzazione di una tipica compagnia aerea charter, focalizzando l’attenzione sul dipartimento delle operazioni di volo che è responsabile delle attività di pianificazione. Verranno poi analizzate le limitazioni che si presentano con un velivolo di corto-medio raggio, effettuando un’analisi della pianificazione vera e propria con utilizzo dei software di pianificazione del volo e di performance di decollo, insieme ad approfondimenti sui punti salienti di cui bisogna tener conto. Infine verranno esposte le attività tipiche di analisi dell’aeroporto e il processo di categorizzazione di esso. Le informazioni così ottenute saranno finalmente utilizzate per effettuare uno studio di una rotta caratteristica nelle operazioni charter a medio raggio.
Resumo:
Il presente elaborato ha come obiettivo l’analisi dei discorsi di ringraziamento pronunciati nelle cerimonie dei premi Oscar dal 1990 al 2015 da attori e attrici, protagonisti e non protagonisti, premiati con la statuetta dorata per le loro performance recitative. L’elaborato si articola in tre capitoli: nel primo, si delinea la storia dei premi Oscar, considerati la cerimonia di premiazione cinematografica per antonomasia, con particolare attenzione ai metodi di selezione di premiati e vincitori da parte dell’Academy of Motion Pictures Arts and Sciences. Ci si concentra anche sul significato, letterale e simbolico, dei discorsi di ringraziamento, e sulla rilevanza che essi hanno all’interno della cerimonia. Nel secondo capitolo, si analizzano i discorsi di ringraziamento dei vincitori da un punto di vista linguistico, con particolare attenzione a prosodia, prossemica, retorica e deissi. Nel terzo e ultimo capitolo, infine, l’analisi assume toni più prettamente culturali, focalizzando l’attenzione sugli aspetti pragmatici e contenutistici dei discorsi, nonché nel tentativo di confrontare gli atteggiamenti delle due categorie nazionali più premiate agli Oscar: gli americani e i britannici.
Resumo:
Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
L'elaborato riguarda il progetto di un circuito di condizionamento del segnale per sistemi di misura reologica. Il circuito è stato studiato per essere interfacciato con un sistema di misura in fase di studio all'Università di Bologna, sebbene il suo utilizzo nei sistemi di analisi nel dominio delle frequenze sia del tutto generale. Il sistema di misura esistente compie un'analisi chimico-fisica di alimenti, generalmente liquidi, in modo da caratterizzare nel dominio delle frequenze la risposta elettrica ad uno stimolo sinusoidale a frequenza variabile. In particolare, il sistema genera due segnali X(f) ed Y(f). Tuttavia, in molti casi di interesse la dinamica del segnale risulta molto piccola rispetto al range massimo del segnale. Lo scopo del circuito di condizionamento è quello di aumentare la dinamica dei segnali X(f) ed Y(f) in modo da rendere i grafici più leggibili. Tale obiettivo è stato ottenuto mediante la progettazione di un opportuno stadio di amplificazione a guadagno programmabile. Il sistema è controllato da un microcontrollore dotato di interfaccia USB con cui comunica con un PC. Le misure effettuate mostrano che il circuito progettato è in grado di amplificare correttamente la dinamica dei segnali acquisiti nel range 0-VDD.
Resumo:
Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.
Resumo:
L’elaborato si compone di cinque capitoli. Il primo è dedicato a un excursus della Letteratura per l’infanzia nel corso degli anni, soffermandosi sulla storia, lo sviluppo e la ricezione nel pubblico infantile di alcuni temi tabù quali il dolore, la sofferenza, l’assenza, la morte e la censura a cui spesso sono stati sottoposti. Il capitolo si sofferma, in particolare, sul tema della morte, cercando di tracciarne la presenza nella Letteratura per l’infanzia. Per permettere l’analisi di un così vasto tema, si è scelto di suddividere e analizzare alcune caratteristiche e simboli della morte presenti in racconti, romanzi e album illustrati dedicati al pubblico infantile. Infine, si è scelto di porre l’accento sulla pedagogia della morte, toccando il tema del lutto e della sepoltura. Il primo capitolo acquisisce importanza alla luce dell’analisi del racconto di Gonzalo Moure, nel quale queste tematiche sono molto presenti e vengono utilizzate senza ricorrere a censura. Il secondo capitolo analizza la vita dell’autore e propone i momenti più significativi della sua carriera artistica, professionale e personale, oltre al suo impegno sociale nell’associazione Bubisher a sostegno della causa saharawi. In questo capitolo troviamo, inoltre, un elenco dettagliato delle opere e delle collaborazioni letterarie dell’autore, un accenno al suo stile di scrittura e la trascrizione dell’intervista da me fatta in Spagna a settembre 2015. Nel terzo capitolo si propone l’analisi approfondita del racconto di Moure: l’aspetto paratestuale, le caratteristiche generali del libro, la trama, i personaggi, il tempo e lo spazio del racconto, così come i temi e i valori trattati. Sono inoltre presenti anche le interviste con l’illustratrice e con l’editor. Il quarto capitolo propone la traduzione del racconto En un bosque de hoja caduca, rispettando il layout della versione originale spagnola. Infine, il quinto capitolo vede il commento alla traduzione e le principali categorie di problemi linguistici riscontrati durante il processo traduttivo quali morfosintassi, lessico, toponimi e antroponimi, onomatopee, modi di dire e aspetti grafici.
Resumo:
Scopo di questo studio è la determinazione delle strutture di età delle specie Mullus barbatus e Mullus surmuletus, pescate in Alto-Medio Adriatico durante le campagne di ricerca MEDITS e GRUND mediante la lettura degli anelli stagionali degli otoliti e delle frequenze di taglia. I campioni di otoliti sono stati prima estratti e poi lavati con sonicatore e acquisiti al computer. Sono state successivamente prese le misure dei radius ed è stata fatta una prima lettura degli anelli. Un subcampione è stato poi scelto per applicare altri due metodi di lettura degli anelli: la bruciatura e la colorazione, preceduta dal taglio dell’otolite. Sono stati poi levigati e lucidati gli otoliti dei giovanili per un conto degli annuli giornalieri. L’analisi dati, svolta tramite il software Rstudio, ha permesso di calcolare non solo le strutture di età, ma anche di osservare le distribuzioni dei campioni per classi di profondità e latitudine, confrontare le strutture di taglia e calcolare le chiavi di età-lunghezza, l’accrescimento somatico con le relazioni lunghezza-peso e l’equazione di Von Bertalanffy e l’accrescimento dell’otolite tramite i rapporti radius-taglia e radius-età e il tasso di incremento dei radius. Infine sono stati anche confrontati i tre metodi di lettura degli anelli al fine di stabilirne il migliore. Le due specie hanno mostrato una grande maggioranza di individui di 1 e 2 anni, soprattutto nella zona settentrionale e centrale dell’area di studio a profondità entro i 100 m. Differenze specifiche sono poi state trovate nel confronto tra le strutture di taglia e le relazioni lunghezza-peso e per il tasso di accrescimento K dell’equazione di Von Bertalanffy. Alta poi è la correlazione tra la misura dei radius e la taglia e l’età. Diverso è anche il tasso degli incrementi dei radius tra primo-secondo anno e secondo-terzo anno.
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
Il progetto parte da un’indagine preliminare relativa alla città di Bogotà, capitale della Colombia che, a causa della rapida urbanizzazione a cui è andata incontro nel corso degli anni, presenta un tessuto urbano frammentario e disorganizzato. In seguito all'aumento spropositato della popolazione, la storia della Colombia documenta un sempre più crescente bisogno di abitazioni ed è proprio da questa situazione che si sviluppa il presente elaborato. Occorre ricucire il tessuto urbano esistente ridefinendo un nuovo sistema di aree residenziali, servizi primari, pubblici, sanitari e aree per la collettività che siano in grado di regolare i futuri insediamenti urbani. La localidad Usme si colloca a Sud di Bogotà, si tratta di una delle localidades più povere e prive di servizi, il cui suolo urbano è interamente ricoperto di abitazioni di piccole dimensioni insalubri e insicure. In questa zona periferica rurale, accanto alle tipiche viviendas informales, si stanno sviluppando le nuove costruzioni collettive edificate ad opera di “MetroVivienda” . Questa società realizza dei massicci blocchi edilizi sfruttando al massimo lo spazio a disposizione senza rispettare le preesistenze o gli spazi aperti, deturpando il contesto in cui si inseriscono e l’assetto originale della città. Il punto di partenza per la comprensione della realtà urbana di Usme è rappresentato dallo studio del rigido schema a griglia dell' assetto urbano, tipico delle fondazioni coloniali della Capitale, che sarà la base generatrice del progetto di ricucitura del tessuto. Lo scopo di questo lavoro è lo sviluppo di un progetto che si adatti al contesto, valorizzando il paesaggio e la naturalità del luogo, per mezzo della riqualificazione del tessuto esistente e che sia in grado di integrare il vecchio con il nuovo.
Resumo:
Si è condotta una ricerca e analisi sulla biomeccanica del salto Lutz nel pattinaggio artistico a rotelle, mettendo a confronto le variabili che caratterizzano il salto doppio e triplo. La tesi è suddivisa in cinque capitoli. Nel primo viene trattata la disciplina del pattinaggio artistico a rotelle, soffermandosi sulla descrizione delle diverse tipologie di salto, in particolar modo riguardo la tecnica del Lutz. Inoltre vengono riportati alcuni articoli, tratti dalla letteratura, riguardanti variabili cinematiche e dinamiche di altre tipologie di salto nel pattinaggio artistico su ghiaccio. Nel secondo capitolo, invece, è stata descritta l’analisi biomeccanica condotta mediante l’uso dei sistemi optoelettronici. Nel terzo è stata illustrata la strumentazione utilizzata, i soggetti esaminati e le varie fasi seguite per l’elaborazione dei dati. Per concludere, negli ultimi due capitoli sono stati riportati i risultati, e le considerazioni finali dello studio fatto.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.