24 resultados para Podridao-mole

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un livello di sicurezza che prevede l’autenticazione e autorizzazione di un utente e che permette di tenere traccia di tutte le operazioni effettuate, non esclude una rete dall’essere soggetta a incidenti informatici, che possono derivare da tentativi di accesso agli host tramite innalzamento illecito di privilegi o dai classici programmi malevoli come virus, trojan e worm. Un rimedio per identificare eventuali minacce prevede l’utilizzo di un dispositivo IDS (Intrusion Detection System) con il compito di analizzare il traffico e confrontarlo con una serie d’impronte che fanno riferimento a scenari d’intrusioni conosciute. Anche con elevate capacità di elaborazione dell’hardware, le risorse potrebbero non essere sufficienti a garantire un corretto funzionamento del servizio sull’intero traffico che attraversa una rete. L'obiettivo di questa tesi consiste nella creazione di un’applicazione con lo scopo di eseguire un’analisi preventiva, in modo da alleggerire la mole di dati da sottoporre all’IDS nella fase di scansione vera e propria del traffico. Per fare questo vengono sfruttate le statistiche calcolate su dei dati forniti direttamente dagli apparati di rete, cercando di identificare del traffico che utilizza dei protocolli noti e quindi giudicabile non pericoloso con una buona probabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Centro di Documentazione sul Nazionalsocialismo di Colonia è un importante sito museale che fornisce uno spaccato della vita, della società e della politica al tempo del Terzo Reich nella città di Colonia e non solo. Allestito in un edificio appartenuto alla Gestapo, nei sotterranei presenta ancora le prigioni in cui furono detenute alcune delle vittime del Regime, luogo oggi divenuto monumento commemorativo. Durante un soggiorno a Colonia nell’ambito del progetto Erasmus, ho avuto l’opportunità di tradurre in italiano l’audioguida del Centro di Documentazione. Vista la mole del testo integrale, in questa tesi vengono analizzati alcuni dei testi che per le loro caratteristiche linguistiche o di contenuto hanno presentato i maggiori problemi traduttivi. Si procederà inoltre ad un’analisi più generale della traduzione in ambito museale, descrivendone le peculiarità che influenzano la strategia traduttiva. Attraverso la selezione dei testi presentati in questa tesi, si è cercato di ricreare l’eterogeneità che caratterizza il testo dell’audioguida per quanto riguarda la tipologia testuale e il registro linguistico. In particolare, in ogni capitolo si analizza un genere testuale diverso: testi caratterizzati dal linguaggio coniato dal Nazionalsocialismo, testi a carattere storico, testi a carattere espressivo e infine una testimonianza orale. In ogni sezione si evidenzieranno le diverse esigenze traduttive e soprattutto le varie strategie adottate per far sì che le tante voci contenute nell’audioguida potessero raccontare la propria storia anche ad un pubblico italiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le caratteristiche strutturali dell’occhio dei Cetacei sono state in passato oggetto di studio. Tuttavia, i dati relativi alla stratigrafia della retina ed alle caratteristiche morfologiche dei neuroni gangliari in essa presenti sono piuttosto ridotti; per questo motivo, l’obiettivo della presente ricerca è stato quello di studiare, mediante metodiche di immunoistochimica, l’uso della microscopia ottica e di opportuni software di analisi immagine, le caratteristiche morfologiche della retina e delle cellule gangliari in essa presenti in differenti specie di Cetacei. Per la presente ricerca sono stati utilizzate come specie di riferimento i seguenti Delfinidi: tursiope (Tursiops truncatus) e stenella striata (Stenella coeruleoalba). Le analisi sulle sezioni interessano l’area, la densità dei neuroni gangliari, la stratigrafia della retina e l’analisi morfometrica degli strati e dei neuroni. I risultati ottenuti indicano come la retina del tursiope e della stenella striata, nonostante un'organizzazione di base assai simile a quella degli altri Mammiferi, mostri caratteristiche qualitative sue proprie. Gli strati retinici sono quelli che si osservano in tutti i Mammiferi e lo spessore totale della retina è, nel tursiope (101,23 µm ) e nella stenella striata (108.35 µm ), pressochè simile ai Mammiferi terrestri (110-220 µm). Nell'ambito della retina, lo strato che presento lo spesso medio maggiore è quello dei granuli interni (SNE); tale dato non coincide con quanto osservato in altri Mammiferi. I neuroni gangliari presenti nella retina di tursiope e stenella striata mostrano, analogamente a quanto osservato in altri Cetacei, una bassa densità cellulare. Nel tursiope e nella stenella striata le aree a maggiore densità cellulare presentano neuroni multipolari di dimensioni minori rispetto a quelle con bassa densità. Questo dato potrebbe indicare una "cellularità" (quantità di superficie occupata da cellule) costante nei differenti distretti retinici. I neuroni gangliari presenti nella retina di tursiope e stenella striata sono disposti in un unico strato, come osservato in numerosi altri Cetacei, ma differisce da quanto osservato nel capodoglio (Physeter macrocephalus) dove tali cellule si dispongono in strati multipli. Neuroni gangliari di grandi dimensioni sono stati osservati sia nel tursiope che nella stenella striata. Tale dato coincide con quanto osservato in altri Odontoceti ed in alcuni Misticeti. Allo stato attuale non è ancora stato dato un chiaro significato funzionale alle cellule gangliari giganti. Un possibile ruolo potrebbe essere quello di condurre, in animali di grossa mole, l'impulso nervoso molto velocemente, grazie alla presenza di un assone provvisto di un diametro notevole. Tale interpretazione non è da tutti accettata in quanto Mammiferi terrestri di grandi dimensioni non presentano nella loro retina neuroni gangliari giganti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VIRTIS, a bordo di Venus Express, è uno spettrometro in grado di operare da 0.25 a 5 µm. Nel periodo 2006-2011 ha ricavato un'enorme mole di dati ma a tutt'oggi le osservazioni al lembo sono poco utilizzate per lo studio delle nubi e delle hazes, specialmente di notte. Gli spettri al lembo a quote mesosferiche sono dominati dalla radianza proveniente dalle nubi e scatterata in direzione dello strumento dalle hazes. L'interpretazione degli spettri al lembo non può quindi prescindere dalla caratterizzazione dell'intera colonna atmosferica. L'obiettivo della tesi è di effettuare un’analisi statistica sulle osservazioni al nadir e proporre una metodologia per ricavare una caratterizzazione delle hazes combinando osservazioni al nadir e al lembo. La caratterizzazione delle nubi è avvenuta su un campione di oltre 3700 osservazioni al nadir. È stato creato un ampio dataset di spettri sintetici modificando, in un modello iniziale, vari parametri di nube quali composizione chimica, numero e dimensione delle particelle. Un processo di fit è stato applicato alle osservazioni per stabilire quale modello potesse descrivere gli spettri osservati. Si è poi effettuata una analisi statistica sui risultati del campione. Si è ricavata una concentrazione di acido solforico molto elevata nelle nubi basse, pari al 96% in massa, che si discosta dal valore generalmente utilizzato del 75%. Si sono poi integrati i risultati al nadir con uno studio mirato su poche osservazioni al lembo, selezionate in modo da intercettare nel punto di tangenza la colonna atmosferica osservata al nadir, per ricavare informazioni sulle hazes. I risultati di un modello Monte Carlo indicano che il numero e le dimensioni delle particelle previste dal modello base devono essere ridotte in maniera significativa. In particolare si osserva un abbassamento della quota massima delle hazes rispetto ad osservazioni diurne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato finale è basato su una proposta di traduzione dal bulgaro all'italiano del racconto breve "Krăv ot kărtica" di Zdravka Evtimova. Sarà suddivisso in tre sezioni principali: la prima si occuperà brevemente di presentare la scrittrice, con particolare attenzione alla sua attività di traduttrice in diverse lingue europee. Si passerà poi a un excursus sulla letteratura contemporanea bulgara, con particolare attenzione alle cause storiche che, dopo il 1989, hanno portato allo sviluppo di una certa produzione letteraria e alla pubblicazione di autori oggi famosi anche all'estero e che 'esportano' la propria letteratura in Europa e non solo, permettendo di far conoscere questa realtà altrimenti ignota ai più. Infine si parlerà brevemente dello stile personale di Zdravka Evtimova, sia in generale che nel racconto preso in esame. La sezione successiva riguarda l'analisi e la discussione dei problemi incontrati durante il processo di traduzione, suddivisa in un analisi dei problemi di ordine e lessicale, e culturale. L'ultima sezione sarà dedicata a un breve commento sull'auto-traduzione e i caratteri principali del procedimento traduttivo di Zdravka Evtimova rispetto alla versione inglese del racconto, "Blood of a mole". In appendice saranno fruibili la versione originale del brano, la traduzione proposta e il testo in inglese.