887 resultados para Rete di drenaggio, simulazione numerica, impianti di sollevamento, portate parassite
Resumo:
Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.
Resumo:
La Ricerca Operativa è considerata una disciplina universitaria il cui insegnamento è previsto nei corsi di laurea di Ingegneria, Matematica e Informatica. Da qualche anno si è verificata una tendenza ad anticipare l'insegnamento della Ricerca Operativa ad un grado scolastico inferiore. In Gran Bretagna e negli Stati Uniti sono presenti organizzazioni molto attive nell'ambito della sua divulgazione e sono nati progetti importanti a livello didattico: corsi di formazione per i docenti, condivisione in rete di materiali e report delle esperienze effettuate. A partire dal 2012 anche nelle indagini internazionali OCSE-PISA si sono aggiunte due aree i cui obiettivi e contenuti si avvicinano alla Ricerca Operativa: financial literacy e problem solving. In Italia, dopo la riforma governativa Gelmini del 2008, sono presenti elementi di Ricerca Operativa solo nei programmi di matematica del quinto anno degli istituti tecnici commerciali e industriali. Tuttavia la Ricerca Operativa può svolgere un ruolo fondamentale nella formazione scientifica, innanzitutto per il suo ruolo di "ponte" tra la matematica e l'informatica, poi per l'importanza dello sviluppo della modellizzazione e per l'interdisciplinarietà della materia e lo stretto contatto con il mondo del lavoro. Inoltre, le esperienze documentate di didattica della Ricerca Operativa hanno potuto verificare l'importante ruolo motivazionale che possiede nei confronti degli studenti meno amanti della matematica. In questo lavoro di tesi si è interrogata la fattibilità di un percorso di Ricerca Operativa per una classe seconda liceo scientifico (anno in cui vengono svolte le indagini internazionali). Viene poi presentata la costruzione di una lezione di Programmazione Lineare che prevede una prima fase di modellizzazione del problema e una seconda fase di soluzione tramite il solutore di excel in laboratorio.
Resumo:
Der Beitrag zum Thema "Italienisch in den Institutionen" beruht auf der Feststellung von Unterschieden im Vergleich der italienischen Rechts- und Verwaltungssprache, die in den europäischen und in den italienischen Institutionen verwendet wird. Im Gegensatz zu Englisch, Französisch und Deutsch gilt Italienisch auf europäischer Ebene als "kleine", weniger wichtige Sprache. Trotz des Grundsatzes der Gleichstellung der Amtssprachen in der Europäischen Union hat dies Konsequenzen, vor allem hinsichtlich der täglich in den Institutionen verwendeten Arbeitssprachen. Im Mittelpunkt des Beitrages stehen Produktion und Typologisierung von Verwaltungs- und Rechtstexten in den europäischen Institutionen und die für größere sprachliche Einheitlichkeit bereitgestellten Hilfsmittel und Übersetzungshilfen. Danach werden die typischen Unterschiede zwischen "europäischem" und "nationalem" Rechts- und Verwaltungsitalienisch dargestellt. Konkrete Einblicke in die Arbeit zur Verbesserung der Sprachqualität der unterschiedlichen Formen des Italienischen in den Institutionen runden den Beitrag ab. Ziel des zum Zweck der Koordinierung dieser Bemühungen gegründete Expertennetzwerks REI (Rete di eccellenza dell’italiano istituzionale) ist es, Bezugspunkt und Ansprechpartner für alle diejenigen zu sein, welche sich auf europäischer oder nationaler Ebene mit Übersetzung, Terminologie oder dem Verfassen von italienischen Rechts- oder Verwaltungstexten befassen. Das auf Vorschlag der Generaldirektion Übersetzung der Europäischen Kommission gegründete Netzwerk arbeitet in verschiedenen Fachgruppen, an denen Experten aus Forschung und Praxis, Linguisten und Juristen, teilnehmen.
Resumo:
Questa tesi si propone di investigare sul rapporto che Wikipedia ha con la traduzione dei suoi articoli. Nella tesi si osserva il fenomeno Wikipedia come paradosso e metodo globale efficiente di diffusione delle informazioni grazie al NPOV, del crowdsourcing con le sue implicazioni etiche per i volontari, i professionisti e i clienti, e della traduzione degli articoli del sito da parte di volontari. Si tratterà del rapporto del traduttore con la grande rete di Wikipedia e con le 280 lingue in cui il sito si può consultare, con una proposta di traduzione del paragrafo “Recursos Humanos” della pagina Wikipedia “El Corte Inglés” spagnola tradotta verso l’italiano.
Resumo:
Le comunicazioni wireless di Quinta Generazione, le quali è assodato che vadano a ricoprire un ruolo chiave e centrale nel futuro delle comunicazioni mobili, hanno suscitato l’interesse e l’investigazione da parte delle maggiori organizzazioni ed enti di ricerca internazionali. Internet of Things, i cosiddetti Use Cases, gli indici KPI e le tecnologie candidate per lo sviluppo, sono tra gli altri, i maggiori aspetti su cui attualmente la ricerca pone la propria attenzione al fine di poter definire ed implementare la rete di Quinta Generazione. Non da meno, ricevono forte interesse anche una serie d’aspetti legati all’utilizzo delle elevate frequenze, in particolar modo le bande delle onde millimetriche, nello sviluppo delle comunicazioni per sistemi 5G. L’utilizzo delle onde millimetriche nel futuro delle comunicazioni mobili è ad oggi considerato il fulcro della ricerca per l’implementazione dell’ architettura di rete di Quinta Generazione. Lo sviluppo di comunicazioni basate sulle onde millimetriche per i sistemi 5G presentano sia delle opportunità ma anche importanti problematiche. Tra queste ultime, l’elevate attenuazioni registrate nelle bande delle onde millimetriche pongono severi limiti qualora si voglia stabilire una comunicazione a lungo raggio e tale è un aspetto critico che interesse fortemente i vari ambiti della ricerca per poter efficacemente porre le basi per il futuro della comunicazione mobile di Quinta Generazione.
Resumo:
L'elaborato è il risultato del progetto di tesi svolto presso l’azienda Lift Truck Equipment L.T.E. di Ostellato (Ferrara) che opera nell’ambito della progettazione e produzione di gruppi di sollevamento ed attrezzature per carrelli elevatori all’interno del gruppo Toyota Material Handling. Il progetto è stato svolto nel periodo da gennaio a marzo 2016 in collaborazione con l’ufficio di Ingegneria di processo di L.T.E. e riguarda l’applicazione del metodo MAGEC (Modi e Analisi dei Guasti e delle Criticità) per l’analisi dei guasti di una linea produttiva dell’azienda, la Rail Line. Nel primo capitolo viene inquadrato il sistema produttivo dell’azienda in aderenza con la filosofia del TPS (Toyota Production System) per chiarire l’ambito in cui è nato il progetto, le motivazioni che hanno portato al suo sviluppo e l’ottica secondo cui è stato svolto. Nel secondo capitolo è fornita una descrizione dell’approccio utilizzato, che consiste in una variante della FMECA, il metodo più utilizzato per le analisi in ambito affidabilistico. Inoltre sono riportate le attività di pianificazione che sono state svolte preliminarmente all’inizio del progetto. Successivamente nel terzo capitolo sono illustrati in modo dettagliato i vari step dell’implementazione del metodo, dalla raccolta dati, effettuata presso l’azienda, all’elaborazione. L’ultimo capitolo è dedicato ai risultati dell’analisi e a una breve descrizione di come tali risultati sono stati utilizzati nelle attività di manutenzione preventiva.
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
L'ambiente di questa tesi è quello del Delay and Disruption Tolerant Networks (DTN), un'architettura di rete di telecomunicazioni avente come obiettivo le comunicazioni tra nodi di reti dette “challenged”, le quali devono affrontare problemi come tempi di propagazione elevati, alto tasso di errore e periodi di perdita delle connessioni. Il Bunde layer, un nuovo livello inserito tra trasporto e applicazione nell’architettura ISO/OSI, ed il protocollo ad esso associato, il Bundle Protocol (BP), sono stati progettati per rendere possibili le comunicazioni in queste reti. A volte fra la ricezione e l’invio può trascorrere un lungo periodo di tempo, a causa della indisponibilità del collegamento successivo; in questo periodo il bundle resta memorizzato in un database locale. Esistono varie implementazioni dell'architettura DTN come DTN2, implementazione di riferimento, e ION (Interplanetary Overlay Network), sviluppata da NASA JPL, per utilizzo in applicazioni spaziali; in esse i contatti tra i nodi sono deterministici, a differenza delle reti terrestri nelle quali i contatti sono generalmente opportunistici (non noti a priori). Per questo motivo all’interno di ION è presente un algoritmo di routing, detto CGR (Contact Graph Routing), progettato per operare in ambienti con connettività deterministica. È in fase di ricerca un algoritmo che opera in ambienti non deterministici, OCGR (Opportunistic Contact Graph Routing), che estende CGR. L’obiettivo di questa tesi è quello di fornire una descrizione dettagliata del funzionamento di OCGR, partendo necessariamente da CGR sul quale è basato, eseguire dei test preliminari, richiesti da NASA JPL, ed analizzarne i risultati per verificare la possibilità di utilizzo e miglioramento dell’algoritmo. Sarà inoltre descritto l’ambiente DTN e i principali algoritmi di routing per ambienti opportunistici. Nella parte conclusiva sarà presentato il simulatore DTN “The ONE” e l’integrazione di CGR e OCGR al suo interno.
Resumo:
Il traguardo più importante per la connettività wireless del futuro sarà sfruttare appieno le potenzialità offerte da tutte le interfacce di rete dei dispositivi mobili. Per questo motivo con ogni probabilità il multihoming sarà un requisito obbligatorio per quelle applicazioni che puntano a fornire la migliore esperienza utente nel loro utilizzo. Sinteticamente è possibile definire il multihoming come quel processo complesso per cui un end-host o un end-site ha molteplici punti di aggancio alla rete. Nella pratica, tuttavia, il multihoming si è rivelato difficile da implementare e ancor di più da ottimizzare. Ad oggi infatti, il multihoming è lontano dall’essere considerato una feature standard nel network deployment nonostante anni di ricerche e di sviluppo nel settore, poiché il relativo supporto da parte dei protocolli è quasi sempre del tutto inadeguato. Naturalmente anche per Android in quanto piattaforma mobile più usata al mondo, è di fondamentale importanza supportare il multihoming per ampliare lo spettro delle funzionalità offerte ai propri utenti. Dunque alla luce di ciò, in questa tesi espongo lo stato dell’arte del supporto al multihoming in Android mettendo a confronto diversi protocolli di rete e testando la soluzione che sembra essere in assoluto la più promettente: LISP. Esaminato lo stato dell’arte dei protocolli con supporto al multihoming e l’architettura software di LISPmob per Android, l’obiettivo operativo principale di questa ricerca è duplice: a) testare il roaming seamless tra le varie interfacce di rete di un dispositivo Android, il che è appunto uno degli obiettivi del multihoming, attraverso LISPmob; e b) effettuare un ampio numero di test al fine di ottenere attraverso dati sperimentali alcuni importanti parametri relativi alle performance di LISP per capire quanto è realistica la possibilità da parte dell’utente finale di usarlo come efficace soluzione multihoming.
Resumo:
Lo sviluppo di tecnologie innovative nel campo delle telecomunicazioni, dei sensori e degli strumenti di calcolo, ha fatto sì che negli ultimi decenni sia stato possibile trovare soluzioni innovative a problemi tradizionali della medicina. Allo stato attuale è possibile ricorrere a dispositivi di monitoraggio di dimensioni molto contenute, che sono in grado di comunicare attraverso una rete di infrastrutture di comunicazione, fino a raggiungere la struttura ospedaliera. In questa tesi si è scelto di approfondire il ruolo della telemedicina nei casi di diabete e patologie cardiache, due fra i disturbi che maggiormente colpiscono la popolazione. Così facendo si osserva come la telemedicina possa rendersi utile in tutte le fasi del trattamento del disturbo: dalla prevenzione alla cura e alla riabilitazione, in maniera tale da perfezionare il rapporto classico fra paziente e specialista della medicina. Si eliminano barriere spaziali e di aggiungono una nuova gamma di servizi, tanto utili al medico quanto al paziente.
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.