999 resultados para Fléau de la dimensionalité
Resumo:
Sur le plan conceptuel, un consensus s’est dégagé depuis quelques années arguant que la pauvreté est un phénomène multidimensionnel. Vu que, la pauvreté en Tunisie est traitée dans la plupart des rapports suivant une approche monétaire et que cette dernière témoigne d'une diminution très appréciable de la pauvreté, nous élargissons la notion de la pauvreté en adoptant une approche multidimensionnelle et en se référant, dans un premier temps, aux réalisations du pays en termes de satisfaction aux Objectifs du Millénaire pour le Développement (OMD). En second lieu, nous procédons, en utilisant la méthode ACP, au calcul d’un indice composite de bien-être pour chaque gouvernorat. Les résultats dégagés à partir de la construction dudit indice montrent une forte disparité entre les régions et une persistance de la pauvreté dans nombre de gouvernorats. Une analyse plus approfondie au niveau de chaque gouvernorat caractérisé comme pauvre nous a permis de localiser, avec précision, les poches de pauvreté persistantes.
Resumo:
Goldsmiths'-Kress no. 14528.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
Mode of access: Internet.
Resumo:
Caption title.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Le diabète de type 2, l'obésité, les maladies cardiovasculaires et le cancer sont des maladies, dites chroniques, qui figurent parmi les plus fréquentes dans le monde actuellement1. Les maladies chroniques s'entendent de maladies de longue durée, généralement non transmissibles et incurables2. Elles ont ceci de particulier que leurs principaux facteurs de risque sont liés à des habitudes de vie malsaines adoptées par les individus, telles qu'une alimentation trop riche en sucre, en gras et en sel, la sédentarité et le tabagisme3. Il n'est pas étonnant de constater, dans les États occidentaux du moins, l'explosion des mesures de santé publique qui visent à influencer les choix quotidiens les plus personnels des citoyens en vue de lutter contre le fléau des maladies chroniques. L'actualité regorge de lois ou de projets de loi visant à interdire le tabagisme dans les endroits publics, à interdire la vente de produits contenant un certain pourcentage de gras transformés, à interdire la malbouffe dans les écoles, à taxer la malbouffe ou encore à encadrer la publicité pour les produits sucrés et gras faite aux enfants, ainsi que de programmes de sensibilisation à une saine alimentation et à l'exercice physique.
Resumo:
TRAVAIL DIRIGÉ PRÉSENTÉ À LA FACULTÉ DES ARTS ET SCIENCES EN VUE DE L’OBTENTION DU GRADE DE MAÎTRE ÈS SCIENCES (M.SC.) EN CRIMINOLOGIE OPTION CRIMINALISTIQUE ET INFORMATION
Resumo:
La presente investigación analiza los principales retos que afectan la cooperación e integración de los cuerpos policiales latinoamericanos en la lucha contra el narcotráfico. Para realizar dicho análisis se toma como caso de estudio AMERIPOL, organización creada en el año 2007 y que actualmente constituye el único mecanismo de cooperación policial en el hemisferio americano. Se considera que la cooperación e integración de los cuerpos policiales en la lucha contra el narcotráfico en la región enfrentan dos retos principales: la disparidad de los marcos jurídicos entre los Estados y la descoordinación política. Estos retos suponen la existencia de factores que impiden una política de cooperación conjunta contra las drogas y por tanto, el desarrollo de actitudes aislacionistas que limitan la cooperación en contra de éste flagelo