457 resultados para Probabilité de couverture
Resumo:
La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.
Resumo:
Cellard (1979) avait avancé que le reportage sportif constituait un bastion du passé simple (PS). Cette affirmation, non étayée par une étude de corpus, semblait trouver un écho dans les études de la presse écrite des années 80-90 (Herzog 1981, Engel 1990). Toutefois, des études récentes consacrées exclusivement au reportage sportif remettent en cause cette prétendue suprématie dans les comptes rendus de la finale de la Coupe du Monde 2002 offerts par la presse francophone (Engel & Labeau 2003) même si des variations régionales (plus grande proportion de PS en périphérie qu’au centre parisien - Labeau 2002) et diachroniques (déclin du PS depuis 1950 – Labeau 2003) semblent se manifester. La présente étude se propose de poursuivre et de raffiner l’analyse de l’emploi du PS dans le compte rendu sportif en sollicitant de nouvelles variables. D’abord, le choix du corpus permettra d’approfondir des hypothèses évoquées dans les articles ci-dessous. Notre corpus sera constitué de la couverture du Tour d’Italie 2004 dans L’Equipe et La Dernière Heure / Les Sports. Le cyclisme se distingue du football par plusieurs aspects, parmi lesquels on peut noter sa linéarité : une course cycliste n’est pas un match joué dans un espace clos, délimité, mais consiste à effectuer un parcours linéaire aussi vite que possible. Cette linéarité pourrait s’avérer favorable au PS (Vetters 2003, Bres 2003). Contrairement aux événements sportifs étudiés précédemment, le Tour d’Italie ne bénéficie pas d’une couverture télévisuelle importante en France, un facteur susceptible d’influencer le compte rendu écrit (Labeau 2003) ; contrairement à ce qui se passe pour les finales de Coupe du Monde, le journaliste ne peut assumer que le lecteur connaît déjà les résultats de l’épreuve. Le corpus étudié ici se veut aussi plus complet : on travaillera sur l’ensemble des articles, en version papier, consacrés au Giro plutôt que sur une sélection d’articles en ligne. Cette prise en compte pourrait mettre en lumière des variations de genre. Un autre intérêt du présent corpus est qu’il illustre les pratiques de la presse sportive plutôt que celles des pages sportives des quotidiens « généralistes » : L’Equipe est l’hebdomadaire français de référence et la DH offre la couverture la plus complète en Belgique francophone. La comparaison des deux publications nous permettra donc de tester d’éventuelles variations régionales. Ainsi, par un corpus spécifiquement sportif et élargi, nous contribuerons à évaluer plus exactement la position réelle du PS dans la presse sportive contemporaine.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.
Resumo:
Con questa tesi verrà spiegata l'intrinseca connessione tra la matematica della teoria dei numeri e l'affidabilità e sicurezza dei crittosistemi asimmetrici moderni. I principali argomenti trattati saranno la crittografia a chiave pubblica ed il problema della verifica della primalità. Nei primi capitoli si capirà cosa vuol dire crittografia e qual è la differenza tra asimmetria e simmetria delle chiavi. Successivamente verrà fatta maggiore luce sugli utilizzi della crittografia asimmetrica, mostrando tecniche per: comunicare in modo confidenziale, scambiare in modo sicuro chiavi private su un canale insicuro, firmare messaggi, certificare identità e chiavi pubbliche. La tesi proseguirà con la spiegazione di quale sia la natura dei problemi alla base della sicurezza dei crittosistemi asimmetrici oggigiorno più diffusi, illustrando brevemente le novità introdotte dall'avvento dei calcolatori quantistici e dimostrando l'importanza che riveste in questo contesto il problema della verifica della primalità. Per concludere verrà fatta una panoramica di quali sono i test di primalità più efficienti ed efficaci allo stato dell'arte, presentando una nuova tecnica per migliorare l'affidabilità del test di Fermat mediante un nuovo algoritmo deterministico per fattorizzare gli pseudoprimi di Carmichael, euristicamente in tempo O~( log^3{n}), poi modificato sfruttando alcune proprietà del test di Miller per ottenere un nuovo test di primalità deterministico ed euristico con complessità O~( log^2{n} ) e la cui probabilità di errore tende a 0 con n che tende ad infinito.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
Il traguardo più importante per la connettività wireless del futuro sarà sfruttare appieno le potenzialità offerte da tutte le interfacce di rete dei dispositivi mobili. Per questo motivo con ogni probabilità il multihoming sarà un requisito obbligatorio per quelle applicazioni che puntano a fornire la migliore esperienza utente nel loro utilizzo. Sinteticamente è possibile definire il multihoming come quel processo complesso per cui un end-host o un end-site ha molteplici punti di aggancio alla rete. Nella pratica, tuttavia, il multihoming si è rivelato difficile da implementare e ancor di più da ottimizzare. Ad oggi infatti, il multihoming è lontano dall’essere considerato una feature standard nel network deployment nonostante anni di ricerche e di sviluppo nel settore, poiché il relativo supporto da parte dei protocolli è quasi sempre del tutto inadeguato. Naturalmente anche per Android in quanto piattaforma mobile più usata al mondo, è di fondamentale importanza supportare il multihoming per ampliare lo spettro delle funzionalità offerte ai propri utenti. Dunque alla luce di ciò, in questa tesi espongo lo stato dell’arte del supporto al multihoming in Android mettendo a confronto diversi protocolli di rete e testando la soluzione che sembra essere in assoluto la più promettente: LISP. Esaminato lo stato dell’arte dei protocolli con supporto al multihoming e l’architettura software di LISPmob per Android, l’obiettivo operativo principale di questa ricerca è duplice: a) testare il roaming seamless tra le varie interfacce di rete di un dispositivo Android, il che è appunto uno degli obiettivi del multihoming, attraverso LISPmob; e b) effettuare un ampio numero di test al fine di ottenere attraverso dati sperimentali alcuni importanti parametri relativi alle performance di LISP per capire quanto è realistica la possibilità da parte dell’utente finale di usarlo come efficace soluzione multihoming.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Au Niger, le taux de mortalité maternelle est estimé à 535 décès pour 100 000 naissances vivantes (INS, 2013) et la probabilité pour un nouveau-né de mourir avant l’âge d’un mois est de 33 ‰. Depuis 2006, le Niger a mis en place une politique de gratuité des soins pour les femmes enceintes et les enfants de 0 à 5 ans, ce qui a contribué à une amélioration significative de la fréquentation des centres de santé. En mars 2012, un processus délibératif fut organisé pendant une conférence de trois jours pour échanger sur les acquis, limites et perspectives de cette nouvelle politique avec 160 participants dont des chercheurs, des humanitaires, des décideurs politiques et des intervenants sur le terrain. L’objectif de cette recherche est de comprendre les effets de cette conférence ainsi que d’explorer les activités du comité de suivi de la feuille de route. La recherche a été réalisée durant deux mois en été 2014 à Niamey et à N’guiguimi. Elle a reposé sur l’utilisation du cadre conceptuel de Boyko et al., (2012) qui permet de décrire les principales caractéristiques et les effets attendus des dialogues délibératifs et comprendre comment les dialogues délibératifs peuvent contribuer à l’élaboration de politiques sur la base de données probantes. Nous avons mis un accent particulier sur les trois formes d’utilisation des connaissances présentées par Dagenais et al., (2013) : instrumentale, conceptuelle et persuasive. Des entretiens semi-directifs ont été effectués avec 22 acteurs impliqués dans la mise en oeuvre des recommandations. Ils ont été enregistrés, retranscrits intégralement et traités avec le logiciel QDA Miner. Les résultats de l’analyse des discours recueillis révèlent une utilisation instrumentale des recommandations et plus visible chez les humanitaires que les décideurs et les acteurs de la société civile. Il ressort aussi de cette analyse une utilisation conceptuelle et persuasive des recommandations à un degré plus faible parmi tous les acteurs. Le comité de suivi de la feuille route de la conférence n’a pratiquement pas fonctionné, par conséquent, le processus n’a pas eu l’impact souhaité. Les principales raisons de cet échec sont liées au contexte de mise en oeuvre des recommandations (arrestation de plusieurs agents du ministère de la Santé publique qui sont des membres clés du comité de suivi à cause du détournement des fonds GAVI, manque de volonté technique et politique) et/ou aux conditions financières (absence de primes pour les membres du comité et de budget de fonctionnement.). Les iv résultats obtenus ont permis de comprendre les énormes défis (contextuels, financiers notamment) qui restent à relever en matière de transfert de connaissance dans le secteur de santé publique au Niger. En ce qui concerne la suite de la conférence, il faudrait accélérer la redynamisation du comité de suivi en le dotant d’un fonds de fonctionnement et en créant une agence autonome de gestion de la gratuité des soins; et renforcer le soutien politique autour de l’Initiative Santé Solidarité Sahel.
Resumo:
Le fichiers qui accompagnent mon document ont été réalisés avec le logiciel Mathematica
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.