43 resultados para Méthodes de recherche avec tabous
em Université Laval Mémoires et thèses électroniques
Resumo:
Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique
Resumo:
Le but de cette thèse a consisté à comprendre les facteurs de la persévérance et de l’abandon scolaire des nouveaux arrivants haïtiens au Québec et à New York. La recension d’écrits a révélé une sous-documentation de la thématique en question. Toutefois, l’élaboration du cadre conceptuel nous a permis de mieux cerner la problématique, d’analyser et de synthétiser plusieurs approches théoriques dont les théories du rendement scolaire des immigrants (Rong et Brown, 2001 ; Warikoo et Carter, 2009 ; Xie et Greenman, 2011), l’approche bourdieusienne des capitaux (1979a, 1979b, 1980), le structuro-fonctionnalisme de Merton (1965) et le courant effets-écoles/ effets-enseignants (Crahay, 2000 ; Bressoux, 1994a). Nous avons également mis en évidence deux approches compréhensives à savoir l’interactionnisme (Weber, 1959 ; Boudon, 1979, 1994 ; Goffman, 1998 ; Garfinkel, 1967) et l’approche du rapport au savoir de l’équipe ESCOL (Rochex, 2002 ; Charlot, 2003) dans l’objectif de faire valoir le caractère relatif des conclusions d’une recherche qualitative qui priorise la subjectivité des participants dans l’analyse des faits sociaux. Dans cette recherche, nous avons interviewé onze participants à Montréal et à Brooklyn, parmi lesquels sept hommes et quatre femmes. Ils ont tous une expérience d’abandon scolaire au secondaire ou au secteur des adultes. Nous avons utilisé l’entretien semi-dirigé comme méthode de collecte d’information et l’analyse thématique est celle de l’analyse des données. L’analyse des données nous a permis de classer les informations fournies par les participants en cinq rubriques : capital économique, capital culturel, capital social, encadrement institutionnel et facteurs spécifiques. Ces cinq rubriques regroupent les facteurs de la persévérance et du décrochage scolaire évoqués par les participants de la recherche. La réalisation de cette thèse nous apporte un bon éclairage quant à notre tentative de comprendre la dynamique de l’abandon scolaire des jeunes et des jeunes adultes immigrants haïtiens de première génération au Québec et à New York, au secondaire et au secteur de l’éducation des adultes. Nous avons mis en relation les résultats de la recherche avec ceux des travaux que nous avons recensés dans la problématique et dans le cadre conceptuel de cette thèse. La synthèse de ces résultats nous a amené à faire une proposition d’éléments d’un modèle d’analyse que nous qualifions de « relance scolaire des nouveaux arrivants haïtiens au Québec et à New York ». L’analyse et la synthèse des facteurs émergents de la recherche, plus précisément des six thèmes qui composent la rubrique des facteurs spécifiques : facteurs démographiques, motivation personnelle, lacunes de base, facteurs affectifs, traits de personnalité et problèmes de comportement, nous ont permis d’élaborer un autre concept qui peut représenter une grande contribution à la persévérance scolaire des nouveaux arrivants haïtiens. Il s’agit de l’encadrement psycho-intégrationnel qui est une forme d’accompagnement dont les jeunes et les jeunes adultes nouveaux arrivants haïtiens pourront être bénéficiaires au début en vue d’un bon démarrage sur le plan socioéducatif et de leur persévérance scolaire au pays d’accueil. L’encadrement psycho-intégrationnel, consistera à mettre en relation certains faits psychologiques qui ont marqué la vie pré-migratoire des élèves jeunes et jeunes adultes d’origine haïtienne avec les faits sociaux qui peuvent influencer leur vie au pays d’accueil. C’est une forme d’assistance individuelle dont l’État, les institutions sociales d’intégration et l’école constitueront les principales structures de matérialisation. Les principaux intervenants, notamment les psychologues, les travailleurs sociaux et les anthropo-sociologues se chargeront de comprendre et d’orienter les nouveaux arrivants quant au nouveau comportement à adopter pour une meilleure évolution sur les plans socio-culturel, professionnel et économique. Mots clés : Persévérance scolaire, relance scolaire, immigrants haïtiens, première génération, nouveaux arrivants.
Resumo:
La répartition des taux de prévalence des infections transmissibles sexuellement et par le sang (ITSS) et du VIH/SIDA au Canada présente de grandes inégalités entre les différents groupes socioculturels. Les Autochtones font partie des populations qui en payent le plus lourd tribut. Par rapport à cette situation, le plan directeur 2007-2017 de la commission de la santé et des services sociaux des Premières Nations du Québec et du Labrador (CSSSPNQL) identifie clairement le VIH/SIDA comme une problématique prioritaire de santé. La stratégie autochtone sur le VIH/SIDA estime que pour être efficaces, les interventions visant la prévention du VIH/SIDA doivent cibler divers groupes, au nombre desquels la jeunesse autochtone est une cible particulière. En ce sens, la familiarité des jeunes générations avec la technologie positionne l’utilisation des technologies de l’information et de la communication (TIC) comme une avenue fortement prometteuse dans le domaine de la prévention du VIH/SIDA chez les adolescents et jeunes adultes. Nous avons réalisé une synthèse des connaissances dans ce domaine novateur suivant une méthodologie suggérée par la Collaboration Cochrane dans le but de documenter l’efficacité et les facteurs d’adoption des interventions utilisant les TIC pour la prévention des ITSS/VIH/SIDA et la promotion de la santé sexuelle et reproductive auprès des adolescents et jeunes adultes. Les résultats de cette revue systématique ont permis d’élaborer et de mener, en partenariat avec la CSSSPNQL, un projet de recherche visant à évaluer la faisabilité de telles interventions au sein des adolescents et jeunes adultes de communautés des Premières Nations (PN) du Québec. En complément à cette étude de faisabilité et dans le but de formuler des recommandations en vue de la conception d’interventions utilisant les TIC et fondées autant sur les données probantes que sur les réalités des jeunes des PN, nous avons entrepris une dernière étude visant à identifier les facteurs sous-jacents du port du condom chez les 13-18 ans de communautés des Premières Nations du Québec. Nous avons discuté, dans la présente thèse, les résultats de ces études ainsi que divers enjeux du partenariat de recherche avec les parties prenantes des PN ayant participé à notre projet. Les implications pratiques de nos résultats, en matière de recherche et d’intervention, sont à discuter avec notre principale partenaire, la CSSSPNQL, afin d’en optimiser les retombées pour les populations des PN.
Resumo:
Ce mémoire propose de retracer un parcours sur l’expérience du processus, mes essais en productions et en diffusion. Développé en trois parties, il décrit d’abord mes premières impressions perceptuelles des oeuvres, ensuite les différentes étapes qui auront ponctué ma recherche-création. Attentive à ce qui se passe en dehors des ateliers et des centres de diffusion en arts visuels, mes écrits sont teintés de mes expériences de diffusion et de création dans les lieux urbains et même, dans le dernier mois, dans le paysage naturel. J’explore mes méthodes de recherche-création instinctive et les différentes facettes entre les thèmes de la tension et de l’abandon. Je m’intéresse à la perception de ces mondes, à leurs cohabitations, à ce qu’ils produisent dans l’oeuvre finale et même, à l’expérience de mon propre corps. Je traiterai également du médium vidéo et de la valeur de l’image en comparaison aux autres médiums exploités, un ensemble d’oeuvres qui matérialisent une certaine temporalité de l’image en mouvement, où l’expérience à vivre est celle de l’instant suspendu ou une vision renouvelée du temps qui passe.
Resumo:
Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
Cette recherche, de nature exploratoire et descriptive, s’intéresse à la trajectoire de recherche d’aide chez les parents vivant des difficultés avec leur adolescent. Cette recherche utilise une méthodologie qualitative et vise à améliorer la compréhension actuelle des processus de recherche d’aide des parents et à identifier l’influence des dynamiques relationnelles et de la réponse sociale obtenue. Notre échantillon est composé de dix parents ayant eu recours à une aide professionnelle concernant des difficultés avec leur adolescent. Notre cueillette de données s’est faite à l’aide d’une entrevue semi-structurée à questions ouvertes et nous avons procédé à une analyse thématique de celles-ci. Les résultats révèlent la complexité derrière les comportements de recherches d’aide et les différentes difficultés rencontrées. Dans leurs trajectoires, trois principaux moments-clés sont distinguables : la reconnaissance du problème, la recherche de solutions et la réponse à la demande d’aide. Les différentes influences et interactions des membres du réseau d’aide informelle, du milieu scolaire et du système de services sont également détaillées. Les résultats mettent en lumière l’importance des dynamiques de négociation au sein du couple parental et l’impact des listes d’attente et des interruptions dans les services d’aide. Les résultats exposent que cette expérience est assez éprouvante pour les parents. Bien qu’elle ne permette pas de résoudre tous les problèmes rencontrés, elle se révèle avec le recul être salutaire, pour la plupart des parents.
Resumo:
Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.
Resumo:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.