865 resultados para Multi-scale place recognition


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La production biologique d'hydrogène (H2) représente une technologie possible pour la production à grande échelle durable de H2 nécessaire pour l'économie future de l'hydrogène. Cependant, l'obstacle majeur à l'élaboration d'un processus pratique a été la faiblesse des rendements qui sont obtenus, généralement autour de 25%, bien en sous des rendements pouvant être atteints pour la production de biocarburants à partir d'autres processus. L'objectif de cette thèse était de tenter d'améliorer la production d'H2 par la manipulation physiologique et le génie métabolique. Une hypothèse qui a été étudiée était que la production d'H2 pourrait être améliorée et rendue plus économique en utilisant un procédé de fermentation microaérobie sombre car cela pourrait fournir la puissance supplémentaire nécessaire pour une conversion plus complète du substrat et donc une production plus grande d'H2 sans l'aide de l'énergie lumineuse. Les concentrations optimales d’O2 pour la production de H2 microaérobie ont été examinées ainsi que l'impact des sources de carbone et d'azote sur le processus. La recherche présentée ici a démontré la capacité de Rhodobacter capsulatus JP91 hup- (un mutant déficient d’absorption-hydrogénase) de produire de l'H2 sous condition microaérobie sombre avec une limitation dans des quantités d’O2 et d'azote fixé. D'autres travaux devraient être entrepris pour augmenter les rendements d'H2 en utilisant cette technologie. De plus, un processus de photofermentation a été créé pour améliorer le rendement d’H2 à partir du glucose à l'aide de R. capsulatus JP91 hup- soit en mode non renouvelé (batch) et / ou en conditions de culture en continu. Certains défis techniques ont été surmontés en mettant en place des conditions adéquates de fonctionnement pour un rendement accru d'H2. Un rendement maximal de 3,3 mols de H2/ mol de glucose a été trouvé pour les cultures en batch tandis que pour les cultures en continu, il était de 10,3 mols H2/ mol de glucose, beaucoup plus élevé que celui rapporté antérieurement et proche de la valeur maximale théorique de 12 mols H2/ mol de glucose. Dans les cultures en batch l'efficacité maximale de conversion d’énergie lumineuse était de 0,7% alors qu'elle était de 1,34% dans les cultures en continu avec un rendement de conversion maximum de la valeur de chauffage du glucose de 91,14%. Diverses autres approches pour l'augmentation des rendements des processus de photofermentation sont proposées. Les résultats globaux indiquent qu'un processus photofermentatif efficace de production d'H2 à partir du glucose en une seule étape avec des cultures en continu dans des photobioréacteurs pourrait être développé ce qui serait un processus beaucoup plus prometteur que les processus en deux étapes ou avec les co-cultures étudiés antérieurément. En outre, l'expression hétérologue d’hydrogenase a été utilisée comme une stratégie d'ingénierie métabolique afin d'améliorer la production d'H2 par fermentation. La capacité d'exprimer une hydrogénase d'une espèce avec des gènes de maturation d'une autre espèce a été examinée. Une stratégie a démontré que la protéine HydA orpheline de R. rubrum est fonctionnelle et active lorsque co-exprimée chez Escherichia coli avec HydE, HydF et HydG provenant d'organisme différent. La co-expression des gènes [FeFe]-hydrogénase structurels et de maturation dans des micro-organismes qui n'ont pas une [FeFe]-hydrogénase indigène peut entraîner le succès dans l'assemblage et la biosynthèse d'hydrogénase active. Toutefois, d'autres facteurs peuvent être nécessaires pour obtenir des rendements considérablement augmentés en protéines ainsi que l'activité spécifique des hydrogénases recombinantes. Une autre stratégie a consisté à surexprimer une [FeFe]-hydrogénase très active dans une souche hôte de E. coli. L'expression d'une hydrogénase qui peut interagir directement avec le NADPH est souhaitable car cela, plutôt que de la ferrédoxine réduite, est naturellement produit par le métabolisme. Toutefois, la maturation de ce type d'hydrogénase chez E. coli n'a pas été rapportée auparavant. L'opéron hnd (hndA, B, C, D) de Desulfovibrio fructosovorans code pour une [FeFe]-hydrogénase NADP-dépendante, a été exprimé dans différentes souches d’E. coli avec les gènes de maturation hydE, hydF et hydG de Clostridium acetobutylicum. L'activité de l'hydrogénase a été détectée in vitro, donc une NADP-dépendante [FeFe]-hydrogénase multimérique active a été exprimée avec succès chez E. coli pour la première fois. Les recherches futures pourraient conduire à l'expression de cette enzyme chez les souches de E. coli qui produisent plus de NADPH, ouvrant la voie à une augmentation des rendements d'hydrogène via la voie des pentoses phosphates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente recherche vise à décrire les pratiques d’enseignement de la littératie au premier cycle du primaire en contexte montréalais d’enseignants considérés experts. Plus précisément, les trois objectifs de recherche consistent à décrire les pratiques d’enseignement de la langue écrite au premier cycle du primaire en contexte montréalais privilégiées par certains enseignants considérés experts (N=6) (objectif 1); à décrire les différentes formes de différenciation pédagogique privilégiées pour l’enseignement de la lecture et de l’écriture en contexte montréalais de certains enseignants considérés experts afin de répondre aux besoins variés de tous leurs élèves (objectif 2) et à étudier les liens possibles entre les pratiques d’enseignement de la langue écrite d’enseignants considérés experts et la progression de leurs élèves (N=100) du premier cycle du primaire en contexte montréalais, au regard de leur connaissance des correspondances phonographiques et de la norme orthographique (objectif 3). Afin de répondre aux objectifs, deux entretiens ont été menés auprès des enseignantes, de même que deux observations en classe, une à l’automne et une au printemps. Pour leur part, les élèves ont été soumis à deux tâches d’écriture à deux reprises durant l’année (une tâche de production de mots et une tâche de production de texte) permettant de mesurer leur progression en cours d’année relativement à leurs connaissances des correspondances phonographiques et de la norme orthographique. Nos résultats nous ont permis de recueillir des pratiques très diversifiées et conduites avec une fréquence fort différente d’une enseignante à l’autre. La densité des contenus abordés en classe diffère également beaucoup entre les enseignantes. En lien avec le modèle du multi-agenda de Bucheton et Soulé (2009), les cinq composantes constituant la matrice de l’activité de l’enseignant se retrouvent dans toutes les classes, mais ces préoccupations n’occupent pas toutes la même place dans les pratiques des enseignantes de la recherche. Nos résultats indiquent aussi que toutes les enseignantes différencient leur enseignement, mais de façon variable. Il semble que ce soit la différenciation des processus, des contenus et des structures qui soit la plus aisée à mettre en place en classe. En lien avec notre adaptation du modèle de différenciation pédagogique de Caron (2008), il semble que ce soit la diversification et l’offre de choix qui sont mobilisées le plus fréquemment. Les mesures d’adaptation sont rarement mises en avant dans les pratiques de classe, tandis que les mesures d’individualisation n’ont pas été constatées. En ce qui a trait aux résultats des élèves aux tâches en écriture, nos résultats indiquent que deux groupes se démarquent parmi les six. En effet, c’est dans ces deux classes que la plus forte progression est constatée. Les pratiques des enseignantes de ces deux classes sont très diversifiées et elles sont les seules à mettre en avant dans leurs pratiques tous les dispositifs dont il est question en entretiens. De plus, les contenus enseignés sont denses, ce qui est réputé pour caractériser les pratiques des enseignants efficaces (Hall, 2003). De même, ces deux enseignantes offrent un étayage de grande qualité à leurs élèves et maîtrisent parfaitement le pilotage des tâches. La présente recherche peut servir à apporter un éclairage nouveau sur les pratiques de littératie des enseignants considérés experts afin de mieux comprendre leurs pratiques, de même que la place qu’ils accordent à la différenciation pédagogique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Pierre et Marie Curie, Paris 6(UPMC, Paris, France).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans son texte, l’auteur répond à une question posée lors d’une Conférence organisée conjointement par l’US Department of Commerce et le Groupe de l’article 29 et qui appelle à déterminer la façon dont les règles de protection des données doivent s’appliquer lors des transferts de données personnelles dans une société globale, multi-économique et multiculturelle. La question est pertinente dans une telle société, caractérisée par le besoin, d’une part d’assurer, sans considération de frontières, un certain régime de protection des données et d’autre part, de respecter la diversité des réalités économiques et culturelles qui se côtoient de plus en plus. L’auteur rappelle d’abord comment l’Europe a progressivement mis en place le système du droit à la protection des données personnelles. Il explique ensuite comment l’Union européenne a considéré la question de la réglementation des flux transfrontières pour en arriver au développement d’un système de protection adéquat et efficace lors des transferts de données hors de l’Union européenne. Toutefois, un tel système mis en place ne semble plus répondre de nos jours à la réalité des flux transfrontières, d’où la nécessité éventuelle de le réformer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diverses méthodes ont été utilisées pour étudier les étoiles Wolf-Rayet (WR) dans le but de comprendre les phénomènes physiques variés qui prennent place dans leur vent dense. Pour étudier la variabilité qui n'est pas strictement périodique et ayant des caractéristiques différentes d'une époque à l'autre, il faut observer pendant des périodes de temps suffisamment longues en adopter un échantillonnage temporel élevé pour être en mesure d'identifier les phénomènes physiques sous-jacents. À l'été 2013, des astronomes professionnels et amateurs du monde entier ont contribué à une campagne d'observation de 4 mois, principalement en spectroscopie, mais aussi en photométrie, polarimétrie et en interférométrie, pour observer les 3 premières étoiles Wolf-Rayet découvertes: WR 134 (WN6b), WR 135 (WC8) et WR 137 (WC7pd + O9). Chacune de ces étoiles est intéressante à sa manière, chacune présentant une variété différente de structures dans son vent. Les données spectroscopiques de cette campagne ont été réduites et analysées pour l'étoile présumée simple WR 134 pour mieux comprendre le comportement de sa variabilité périodique à long terme dans le cadre d'une étude des régions d'interactions en corotation (CIRs) qui se retrouvent dans son vent. Les résultats de cette étude sont présentés dans ce mémoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Biometrics has become important in security applications. In comparison with many other biometric features, iris recognition has very high recognition accuracy because it depends on iris which is located in a place that still stable throughout human life and the probability to find two identical iris's is close to zero. The identification system consists of several stages including segmentation stage which is the most serious and critical one. The current segmentation methods still have limitation in localizing the iris due to circular shape consideration of the pupil. In this research, Daugman method is done to investigate the segmentation techniques. Eyelid detection is another step that has been included in this study as a part of segmentation stage to localize the iris accurately and remove unwanted area that might be included. The obtained iris region is encoded using haar wavelets to construct the iris code, which contains the most discriminating feature in the iris pattern. Hamming distance is used for comparison of iris templates in the recognition stage. The dataset which is used for the study is UBIRIS database. A comparative study of different edge detector operator is performed. It is observed that canny operator is best suited to extract most of the edges to generate the iris code for comparison. Recognition rate of 89% and rejection rate of 95% is achieved

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we address the problem of face detection and recognition of grey scale frontal view images. We propose a face recognition system based on probabilistic neural networks (PNN) architecture. The system is implemented using voronoi/ delaunay tessellations and template matching. Images are segmented successfully into homogeneous regions by virtue of voronoi diagram properties. Face verification is achieved using matching scores computed by correlating edge gradients of reference images. The advantage of classification using PNN models is its short training time. The correlation based template matching guarantees good classification results

Relevância:

30.00% 30.00%

Publicador:

Resumo:

n this paper we address the problem of face detection and recognition of grey scale frontal view images. We propose a face recognition system based on probabilistic neural networks (PNN) architecture. The system is implemented using voronoi/ delaunay tessellations and template matching. Images are segmented successfully into homogeneous regions by virtue of voronoi diagram properties. Face verification is achieved using matching scores computed by correlating edge gradients of reference images. The advantage of classification using PNN models is its short training time. The correlation based template matching guarantees good classification results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Performance of any continuous speech recognition system is dependent on the accuracy of its acoustic model. Hence, preparation of a robust and accurate acoustic model lead to satisfactory recognition performance for a speech recognizer. In acoustic modeling of phonetic unit, context information is of prime importance as the phonemes are found to vary according to the place of occurrence in a word. In this paper we compare and evaluate the effect of context dependent tied (CD tied) models, context dependent (CD) and context independent (CI) models in the perspective of continuous speech recognition of Malayalam language. The database for the speech recognition system has utterance from 21 speakers including 11 female and 10 males. Our evaluation results show that CD tied models outperforms CI models over 21%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.