392 resultados para Réseaux aléatoires continus


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse les négociations interculturelles des Gens du Centre (groupe amazonien multi-ethnique) avec les discours universels de droits humains et de développement mobilisés par l’État colombien. L’analyse se concentre sur le Plan de sauvegarde ethnique Witoto chapitre Leticia (ESP), qui est un des 73 plans formulés et implémentés par l’État colombien pour reconnaître les droits des peuples autochtones en danger par le déplacement forcé causé par les conflits armés internes. J’analyse l’ESP à travers la notion de friction (Tsing, 2005) qui fait référence aux caractéristiques complexes, inégalitaires et changeantes des rencontres contemporaines entre les différences des savoirs locaux et globaux. Mon analyse se base aussi sur des approches foucaldiennes et/ou subalternes de pouvoir comme la recherche anticoloniale et de la décolonisation, les perspectives critiques et contre-hégémoniques des droits humains, le post-développement, et les critiques du féminisme au développement. L’objectif de la thèse est d’analyser les savoirs (concepts de loi, de justice et de développement); les logiques de pensée (pratiques, épistémologies, rôles et espaces pour partager et produire des savoirs); et les relations de pouvoir (formes de leadership, associations, réseaux, et formes d’empowerment et disempowerment) produits et recréés par les Gens du Centre au sein des frictions avec les discours de droits humains et du développement. La thèse introduit comment la région habitée par les Gens du Centre (le Milieu Amazone transfrontalier) a été historiquement connectée aux relations inégalitaires de pouvoir qui influencent les luttes actuelles de ce groupe autochtone pour la reconnaissance de leurs droits à travers l’ESP. L’analyse se base à la fois sur une recherche documentaire et sur deux terrains ethnographiques, réalisés selon une perspective critique et autoréflexive. Ma réflexion méthodologique explore comment la position des chercheurs sur le terrain influence le savoir ethnographique et peut contribuer à la création des relations interculturelles inclusives, flexibles et connectées aux besoins des groupes locaux. La section analytique se concentre sur comment le pouvoir circule simultanément à travers des échelles nationale, régionale et locale dans l’ESP. J’y analyse comment ces formes de pouvoir produisent des sujets individuels et collectifs et s’articulent à des savoirs globaux ou locaux pour donner lieu à de nouvelles formes d’exclusion ou d’émancipation des autochtones déplacés. Les résultats de la recherche suggèrent que les Gens du Centre approchent le discours des droits humains à travers leurs savoirs autochtones sur la « loi de l’origine ». Cette loi établit leur différence culturelle comme étant à la base du processus de reconnaissance de leurs droits comme peuple déplacé. D’ailleurs, les Gens du Centre approprient les discours et les projets de développement à travers la notion d’abondance qui, comprise comme une habileté collective qui connecte la spiritualité, les valeurs culturelles, et les rôles de genre, contribue à assurer l’existence physique et culturelle des groupes autochtones. Ma thèse soutient que, même si ces savoirs et logiques de pensée autochtones sont liés à des inégalités et à formes de pouvoir local, ils peuvent contribuer à des pratiques de droits humains et de développement plurielles, égalitaires et inclusives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail des chefs d’établissement (ChE) a évolué au gré des politiques éducatives. Ces derniers deviennent des agents du changement ou managers dans des établissements autonomes soumis à l'obligation de résultats. En France en 2006, les ChE rencontrent de nouveaux défis avec les réseaux ambition réussite (RAR) au collège. Une situation inédite qui pose une question nouvelle aux ChE : comment piloter des équipes composites dans un collège en RAR ? Le parti pris dans cette thèse est celui de l’ergonomie de l’activité qui questionne un paradoxe : d’un côté, la focale est mise sur le développement du travail collectif dans les établissements et son impact sur les performances, d’un autre côté sont négligés l'organisation du travail à laquelle se livrent les cadres pédagogiques comme le travail d'organisation des professeurs pour faire vivre ces collectifs. Le but ici est de montrer l’importance du travail réel pour comprendre les conditions et difficultés des cadres pédagogiques pour organiser le travail des professeurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inspiré par la réflexion épistémologique de l'anthropologue Michel Verdon, ce mémoire propose un cadre conceptuel pour l'étude de l'organisation sociale des castes en Inde. L'ethnographie de Jonathan Parry, Caste and Kinship in Kangra, est analysée et réinterprétée dans un langage dit « opérationnel ». Les différentes approches des castes oscillent entre deux pôles théoriques opposés : l'idéalisme, représenté notamment par la démarche structuraliste de Louis Dumont, et le substantialisme, jadis adopté par les dirigeants coloniaux et incarné plus récemment dans les travaux de Dipankar Gupta. Toutes deux holistes, ces options conduisent pourtant à une impasse dans l'étude comparative de l'organisation sociale, car elles rendent les groupes « ontologiquement variables » et, par conséquent, incomparables. En repensant les prémisses sur lesquelles repose la conception générale de l'organisation sociale, un cadre opérationnel confère à la notion de groupe une réalité binaire, discontinue, évitant ainsi la variabilité ontologique des groupes et favorisant le comparatisme. Il rend également possible l'étude des rapports entre groupes et réseaux. La relecture de l'ethnographie Caste and Kinship in Kangra montre la pertinence d'une telle approche dans l'étude des castes. Le caractère segmentaire de ces dernières est remis en cause et l'autonomie des foyers, qui forment des réseaux d'alliances en matière d'activités rituelles, est mise de l'avant. Cette nouvelle description incite enfin à de nouvelles comparaisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En plus de la triade de symptômes caractérisant l’autisme, ce trouble neurodévelopmental est associé à des particularités perceptives et motrices et, au niveau cérébral, par une connectivité atypique entre les différentes régions du cerveau. Au niveau anatomique, un des résultats les plus communs est la réduction du corps calleux. Toutefois, des effets directs de cette altération anatomique sur l’intégrité et l’efficacité du transfert interhémisphérique restent à être démontrés. Pour la présente thèse, trois différentes études investiguent différents aspects du traitement de l’information visuomotrice : le transfert interhémisphérique entre les régions bilatérales motrices et visuelles, la vitesse de traitement perceptif, et les habiletés motrices visuellement guidées. Dans la première étude, le paradigme visuomoteur de Poffenberger a été utilisé pour mesurer le temps de transfert interhémisphérique (TTIH). L’imagerie par résonnance magnétique fonctionnelle (IRMf) et structurale ainsi que l’imagerie de diffusion ont aussi été utilisées pour étudier les réseaux cérébraux impliqués dans la tâche de Poffenberger. Les autistes ont été comparés à un groupe d’individus à développement typique. La deuxième étude avait pour but d’investiguer la vitesse de traitement perceptif en autisme. Dans la troisième étude, deux tâches motrices (Purdue et Annett) ont été utilisées pour examiner la nature et l’importance des déficits moteurs. La tâche de Purdue inclut deux conditions bimanuelles utilisées comme indice additionnel d’intégration interhémisphérique. Dans les études 2 et 3, le groupe d’autistes a aussi été comparé à un groupe d’individus Asperger afin de voir si, et comment, les deux sous-groupes peuvent être distingués en ce qui concerne le traitement visuel et les déficits moteurs. Aucune différence entre les groupes n’a été observée en termes de TTIH. Les résultats de l’étude IRMf révèlent des différences d’activations corticales en lien avec la tâche de Poffenberger. Dans les groupes d’autistes et de typiques, l’efficacité de la communication interhémisphérique était associée à différentes portions du corps calleux (frontales/motrices chez les typiques, postérieures/visuelles chez les autistes). De façon globale, les résultats de cette étude démontrent un patron atypique de transfert interhémisphérique de l’information visuomotrice en autisme, reflétant un rôle plus important des mécanismes visuels dans le comportement sensorimoteur possiblement en lien avec une réorganisation cérébrale. Les résultats des études comportementales 2 et 3 indiquent que les autistes excellent dans la tâche mesurant la vitesse de traitement perceptif alors que les Asperger accomplissent la tâche à des niveaux similaires à ceux des typiques. La nature des déficits moteurs diffère aussi entre les deux sous-groupes; la dextérité et la coordination bimanuelle est affectée chez les individus Asperger mais pas chez les autistes, qui eux sont plus atteints au niveau de la rapidité unimanuelle. Les sous-groupes d’autistes et de syndrome d’Asperger sont caractérisés par des profils cognitifs différents dont les particularités perceptives et motrices font partie intégrante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’inscrit au cœur du chantier de réflexion sur l’interaction entre les États et les entreprises multinationales qui s’impose dans le contexte de l’accélération actuelle du processus de mondialisation de l’économie capitaliste. Nous l’abordons sous l’angle plus particulier des multinationales et de leur engagement institutionnel au sein des organisations, associations, forums ou réseaux qui contribuent à la définition et parfois même à la gestion des différentes politiques publiques orientées vers le développement économique, l’innovation et le marché du travail. Quelles sont les différentes facettes de l’engagement institutionnel des filiales de multinationales au Canada ? Comment ces comportements peuvent-ils être influencés par les différentes caractéristiques et stratégies de ces entreprises ? Un modèle théorique large, empruntant des hypothèses aux nombreuses approches théoriques s’intéressant aux comportements généraux des multinationales, est testé à l’aide d’analyses quantitatives de données obtenues dans le cadre d’une enquête auprès des multinationales au Canada associée au projet international INTREPID. D’abord, cette thèse permet une opérationnalisation plus précise du concept d’« imbrication de la firme » à travers la notion d’engagement institutionnel. Elle met en évidence les différentes dimensions de ce phénomène et remet en question la vision « essentiellement » positive qui l’entoure. Les résultats de cette thèse viennent questionner de la centralité des approches macro-institutionnalistes, particulièrement celle associée aux Variétés du capitalisme, dans les études sur les multinationales. Ils réaffirment par contre l’importance des différentes approches économiques et démontrent plus particulièrement la pertinence de la théorie de la dépendance aux ressources et l’impact de la présence d’un acteur structuré venant faire le contrepoids aux gestionnaires. Malgré nos efforts de théorisation, nous sommes incapable d’observer un effet modérateur des facteurs stratégiques sur l’impact du pays d’origine dans la détermination de l’engagement institutionnel. Cette thèse offre des indications permettant de cibler les interventions institutionnelles qui cherchent à « attacher » les multinationales à l’économie canadienne. Elle met aussi en évidence la contribution d’acteurs indirects dans la consolidation des relations d’engagement institutionnel et plus particulièrement le rôle positif que peuvent jouer les syndicats dans certains forums ou réseaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les collaborations interorganisationnelles apparaissent de plus en plus incontournables pour s’attaquer concrètement, et avec quelques chances de résultats, à nos problèmes et défis collectifs les plus importants, que ce soit dans les domaines de l’environnement, de la santé ou de la sécurité publique. Ces initiatives de gouvernance collaborative surpassent chacune des organisations individuelles pour décider et intervenir collectivement. Dans cette visée, cette recherche contribue à mieux comprendre le processus de concertation et les interactions entre les acteurs et les organisations qui participent à des initiatives de collaboration interorganisationnelle où de nombreuses parties prenantes sont interpellées. Plus précisément, cette étude porte sur la problématique des réseaux d’acteurs et de la gouvernance en sécurité routière au Québec. Nous nous sommes penchés sur l’expérience de la Table québécoise de la sécurité routière (TQSR) afin de comprendre les enjeux actuels de représentation et de concertation en matière d’action gouvernementale. Cette recherche examine le rôle de l’identité des acteurs et de leurs interactions dans les processus de construction de consensus et de prise de décision, de même que les divers enjeux de communication inhérents à ce genre d’exercice collectif. Nous démontrons également qu’un facteur de succès d’une collaboration interorganisationnelle repose sur la capacité des acteurs à construire une identité collective malgré leurs intérêts divergents et parfois opposés. Cette thèse améliore donc notre compréhension des mécanismes et des processus à la base des collaborations interorganisationnelles comme pratique de gouvernance collaborative, un mode de gestion de plus en plus utilisé dans l’administration de nos sociétés contemporaines. Cette thèse contribue également à montrer la manière dont les organisations se construisent et se maintiennent localement par l’entremise de la communication et de ses modalités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le risque de chute est une problématique bien présente chez les personnes âgées ou ayant une atteinte neurologique et reflète un déficit des mécanismes neuronaux assurant l’équilibre. De précédentes études démontrent que l’intégration des informations sensorielles est essentielle au contrôle de l’équilibre et que l’inhibition présynaptique (IP) serait un mécanisme important dans le contrôle de la transmission sensorielle. Ainsi, le but de cette étude était d’identifier la contribution du mécanisme d’IP à l’induction de réponses posturales efficaces suite à une perturbation d’équilibre. Notre hypothèse est qu’une diminution d’IP contribuerait à l’induction des ces réponses, en augmentant l’influence de la rétroaction sensorielle sur les réseaux de neurones spinaux. Afin de démontrer cette hypothèse, nous avons d’abord évalué l’excitabilité spinale pendant les perturbations vers l’avant ou vers l’arrière, à l’aide du réflexe H. L’excitabilité spinale était modulée selon la direction de la perturbation et cette modulation survenait dès 75 ou 100 ms (p<0.05), soit avant l’induction des réactions posturales. Puis, à l’aide de techniques plus précises de convergence spinale, nous avons démontré que l’IP était diminuée dès 75 et 100 ms dans les deux directions, suggérant que la transmission des informations sensorielles vers la moelle épinière est accrue juste avant le déclenchement de la réponse posturale. Cette étude met en évidence un mécanisme-clé permettant d’augmenter la rétroaction des informations sensorielles nécessaires à l’induction de réponses posturales appropriées. L’évaluation de ce mécanisme pourrait mener à une meilleure identification des individus à risque de chute.