27 resultados para Employees Training of Thailand
em Université de Montréal, Canada
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Dans cette thèse, nous décrivons les résultats d’un projet de recherche visant à mesurer et évaluer la qualité des soins obstétricaux des hôpitaux de référence au Mali et au Sénégal. Dans ces pays, la mortalité maternelle hospitalière est élevée et est liée en partie à la pratique médicale inadéquate. Cette recherche a été réalisée dans le cadre de l’étude QUARITE, un essai randomisé en grappe évaluant l’efficacité du programme GESTA International visant à réduire la mortalité maternelle hospitalière. GESTA a été mis en œuvre entre 2008 et 2010 et consistait en la formation des professionnels de santé et en la revue des cas de décès maternels. En parallèle de QUARITE, les programmes de prévention de la transmission du VIH de la mère à l’enfant (PTME) ont été mis à l’échelle à travers les pays. Ces derniers ayant également la capacité d’augmenter la qualité des soins obstétricaux, nous avons donc évalué les effets des deux programmes (GESTA et PTME) sur la qualité des soins. Dans un premier temps, à l’aide d’une recension des écrits nous avons évalué la capacité d’un audit clinique basé sur des critères à mesurer la qualité des soins obstétricaux. Cet audit vérifiait si l’offre des soins avait respecté les critères cliniques définissant la meilleure prise en charge selon l’évidence scientifique et l’avis des experts. Nous avons démontré que cet outil est largement utilisé dans les pays à faibles et moyens revenus, malgré le peu d’évidence sur sa validité (article 1). Dans un deuxième temps, nous avons développé un audit clinique basé sur des critères qui s’applique au contexte ouest-africain et qui a été approuvé par des experts-obstétriciens nationaux et internationaux. À partir des dossiers obstétricaux, les actes médicaux posés pendant le travail et l’accouchement ont été évalués à l‘aide de cet instrument. La qualité des soins a été estimée sous forme de pourcentage de critères atteints. Appliqué dans différents contextes et par différents auditeurs, nous avons démontré que notre instrument est fiable et valide (article 3). Néanmoins, l’expérience de l’audit nous a amenés à nous questionner sur le mauvais remplissage des dossiers médicaux et ses conséquences sur la qualité des soins (article 2). Dans un troisième temps, l’outil a été appliqué à large échelle pour évaluer les effets de l’intervention GESTA (article 4). Nous avons mené une révision de plus de 800 dossiers obstétricaux dans 32 hôpitaux de référence (16 bénéficiaires de l’intervention et 16 non-bénéficiaires). Grâce à cet audit clinique, nous avons démontré que le programme GESTA contribue à l’amélioration de la qualité des soins, spécifiquement l’examen clinique lors de l’admission et le suivi après l’accouchement. Dernièrement, nous avons utilisé cet instrument afin d’évaluer les effets des programmes de PTME sur la qualité des soins obstétricaux (article 5). Notre travail a documenté que seulement certaines composantes du programme de PTME améliorent la qualité des soins telles que la formation des professionnels et les services complémentaires en nutrition. En conclusion, cette recherche a identifié plusieurs pistes d’intervention pour améliorer la qualité des soins obstétricaux en Afrique de l’Ouest.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
L’objectif de cette étude exploratoire était de mieux comprendre, du point de vue des animateurs/animatrices qui oeuvrent auprès des jeunes, le phénomène de l’engagement des jeunes dans les programmes parascolaires. Des entretiens qualitatifs ont été entrepris à cette fin avec six animateur(trices). Plusieurs obstacles à l’engagement ont été identifiés, la plupart étant extérieurs aux jeunes. Quelques actions et attitudes spécifiques des animateur(trices) ont été relevées comme importantes pour aider les jeunes à surmonter ces obstacles. De plus, la structure et le contenu du programme, ainsi que l’environnement de groupe, jouent des rôles primordiaux. Les dimensions soulevées par les animateur(trices) ont permis d’enrichir et rendre plus holistique un modèle d’engagement qui a été développé à partir d’une recension des écrits dans ce domaine. Finalement, les implications pour la formation des animateurs(trices) et pour la structure des programmes pour les jeunes ont été explorées.
Resumo:
Compte-rendu / Review
Resumo:
Les communautés inuites de la Baie d’Hudson au Nunavik (Québec) se distinguent des autres communautés autochtones par leur réappropriation des naissances depuis 1986 et par la création d’un programme de formation de sages-femmes locales. Cela a permis de mettre un terme à une longue période de transfert des femmes pour accouchement en structure hospitalière, à des kilomètres de leur village. De plus, ce programme a pour objectif de réintégrer les pratiques traditionnelles au sein d’une obstétrique moderne afin d’offrir aux femmes des services de qualité et culturellement appropriés. Le but de notre étude était d’établir si le programme de formation de sages-femmes autochtones du Nunavik a permis de concilier ces deux approches d’enseignement différentes : l’une axée sur le savoir traditionnel, et l’autre concernant les normes de qualité de soins à respecter. Une méthode de recherche qualitative a été adoptée et les données ont été recueillies à l’aide d’entrevues réalisées auprès de cinq sages-femmes inuites et de six étudiantes sages-femmes du programme de formation du Nunavik, au sein des trois villages de la Baie d’Hudson pourvus de centre de naissances. L’analyse qualitative des données ne permet pas de confirmer la réintégration du savoir traditionnel dans la pratique des sages-femmes autochtones. Les résultats révèlent, en effet, une rareté des pratiques traditionnelles connues et/ou utilisées par celles-ci (notamment l’utilisation de plantes ou de remèdes médicinaux, les postures d’accouchement, les manœuvres obstétricales, etc) en relation avec la période périnatale. Les croyances ou codes de conduite à respecter pendant la grossesse semblent bénéficier d’une meilleure transmission, mais ne font plus l’unanimité au sein des communautés. Concernant le volet de l’obstétrique moderne, le programme de formation semble conforme aux exigences actuelles occidentales, étant reconnu par l’Ordre des sages-femmes du Québec depuis septembre 2008. De plus, les sages-femmes et les étudiantes sont conscientes de la nécessité de recevoir une formation de qualité. Elles aimeraient bénéficier d’une plus grande rigueur dans l’enseignement théorique ainsi que d’une meilleure continuité du processus d’apprentissage. La difficulté retrouvée dans la mixité de l’enseignement de ces deux savoirs (traditionnel et moderne) semble donc être liée plus particulièrement au savoir traditionnel. Les sages-femmes et étudiantes inuites souhaitent protéger et promouvoir leur patrimoine culturel, mais plus dans une optique de responsabilité communautaire que dans le cadre d’un programme de formation. Une collaboration entre les volontés des communautés concernant la réintégration de ce patrimoine et la réalité actuelle de la biomédecine demeure primordiale pour continuer à garantir la sécurité et la qualité des services dispensés.
Resumo:
Introduction : L’évaluation clinique du contrôle neuromusculaire des muscles du tronc est criante en réhabilitation et en entraînement. L’objectif principal de cette étude a été d’évaluer la reproductibilité intra et inter-évaluateur d’un test clinique le soulèvement actif de la jambe tendue (SAJT) chez une population active et saine. Méthode : Chaque sujet (18 joueurs de tennis) a été testé à deux reprises par 2 physiothérapeutes avec le SAJT. Résultats : La reproductibilité intra-évaluateur s’est avérée élevée à très élevée (ICC = 0.81 à 0.93) tandis la reproductibilité inter-évaluateur s’est avérée cliniquement non viable. Conclusion : À notre connaissance, le SAJT est le premier test clinique reproductible évaluant le contrôle neuromusculaire du tronc avec des compensations musculaires et cinétiques chez des sujets actifs et sains. Une formation plus importante des évaluateurs aurait certainement amélioré la reproductibilité inter-évaluateur.
Resumo:
L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
Au cours des dernières décennies, les chercheurs ont souligné l'importance d'étudier les émotions et le processus de construction de sens (sensemaking) de Weick (1995) dans des contextes organisationnels. Cependant, peu d'études ont examiné les relations complexes entre ces deux dimensions de l’expérience organisationnelle. Pour comprendre davantage ce lien, cette étude explore l’interprétation du rôle des émotions dans le processus de sensemaking dans le contexte d'un centre d’hébergement pour personnes âgées. Fondée sur l’analyse de récits d’expériences de six employés, cette analyse narrative révèle les principales différences et similitudes dans la manière dont les émotions marquent le sensemaking de ces employés dans leurs interactions quotidiennes au travail. De plus, cette recherche montre que l'accent mis sur les émotions peut faire ressortir des aspects organisationnels particuliers du sensemaking qui, autrement, restent pris pour acquis (ou cachés).
Resumo:
L’accès financier limité aux soins de santé a suscité l’instauration de politiques sanitaires de subvention des soins en Afrique. Au Burkina Faso, une ONG, en complémentarité avec la politique sanitaire nationale subventionne à 100% depuis septembre 2008 les soins et les médicaments pour les enfants de moins de cinq ans dans le district sanitaire de Dori. L’intervention regroupe formation du personnel soignant, supervisions et suppression de paiement des soins et des médicaments. L’objectif de l’étude est d’analyser l’effet de cette intervention sur l’adéquation des prescriptions médicales. Neuf centres de santé ont été pris en compte. Au total 14956 ordonnances d’enfants de moins de cinq ans ciblés par l’intervention ont été sélectionnées par échantillonnage systématique à partir des registres de consultation un an avant et un an après l’instauration de l’intervention. Quatorze prescripteurs ont été interviewés. Les prescriptions ont été analysées par comparaison au référentiel de l’OMS ainsi qu’au référentiel national. Le discours des prescripteurs a été analysé en vue de comprendre leur perception de leur changement de pratiques depuis de début de la subvention. L’intervention a eu pour effet de diminuer l’utilisation des injections (Rapport de cote (RC) =0,28; p<0,005) dans le cas des infections respiratoires aiguës (IRA). Elle a entraîné une diminution de l’utilisation inappropriée des antibiotiques dans les cas de paludisme seul (RC=0,48; p<0,0005). Le nombre moyen de médicaments par ordonnance a également diminué de 14% dans les cas d’IRA (p<0,0005). Les prescripteurs ont affirmé pour la plupart que leurs pratiques se sont soit maintenues soit améliorées. L’intervention a entrainé une amélioration de l’adéquation des prescriptions médicales dans certains cas.
Resumo:
Aujourd’hui, il existe très peu de nouveaux produits écoconçus (NPE) mis sur le marché par les PME du Québec et les réussites commerciales sont encore plus rares. Dans ce contexte, il semble pertinent de se pencher sur la manière dont le processus d’écoconception pourrait être à la fois mieux et plus utilisé dans les PME québécoises en étudiant spécifiquement la réception des NPE auprès des détaillants pendant la commercialisation. La question à laquelle se propose de répondre ce mémoire est la suivante : comment un produit conçu selon une approche cycle de vie est-il reçu par le réseau de détaillants d’une PME? Aussi, cette recherche explore le rôle du designer, qui normalement s’achève au début de la commercialisation, que pourrait jouer durant cette phase afin de favoriser la réception positive d’un NPE. Cette recherche s’appuie sur une étude de cas de la première phase de commercialisation d’un meuble de salle de bain écoconçu par une PME manufacturière québécoise en 2010 et 2011. La chercheuse a observé la réception d’un NPE, c’est-à-dire la perception et l’appréciation de celui-ci, par des personnes œuvrant dans une PME de fabrication d’ameublement de salle de bain et par ceux qui agissent dans son réseau de distribution. Nous avons relevé que la compréhension des notions liées à l’écoconception est un enjeu important dans la réception d’un NPE. C'est pourquoi la formation des détaillants et l’éducation des consommateurs deviennent essentielles pour la réception positive d’un NPE. Dans cette perspective, le designer pourrait intervenir durant la commercialisation.