518 resultados para Réseaux maillés
Resumo:
En plus de la triade de symptômes caractérisant l’autisme, ce trouble neurodévelopmental est associé à des particularités perceptives et motrices et, au niveau cérébral, par une connectivité atypique entre les différentes régions du cerveau. Au niveau anatomique, un des résultats les plus communs est la réduction du corps calleux. Toutefois, des effets directs de cette altération anatomique sur l’intégrité et l’efficacité du transfert interhémisphérique restent à être démontrés. Pour la présente thèse, trois différentes études investiguent différents aspects du traitement de l’information visuomotrice : le transfert interhémisphérique entre les régions bilatérales motrices et visuelles, la vitesse de traitement perceptif, et les habiletés motrices visuellement guidées. Dans la première étude, le paradigme visuomoteur de Poffenberger a été utilisé pour mesurer le temps de transfert interhémisphérique (TTIH). L’imagerie par résonnance magnétique fonctionnelle (IRMf) et structurale ainsi que l’imagerie de diffusion ont aussi été utilisées pour étudier les réseaux cérébraux impliqués dans la tâche de Poffenberger. Les autistes ont été comparés à un groupe d’individus à développement typique. La deuxième étude avait pour but d’investiguer la vitesse de traitement perceptif en autisme. Dans la troisième étude, deux tâches motrices (Purdue et Annett) ont été utilisées pour examiner la nature et l’importance des déficits moteurs. La tâche de Purdue inclut deux conditions bimanuelles utilisées comme indice additionnel d’intégration interhémisphérique. Dans les études 2 et 3, le groupe d’autistes a aussi été comparé à un groupe d’individus Asperger afin de voir si, et comment, les deux sous-groupes peuvent être distingués en ce qui concerne le traitement visuel et les déficits moteurs. Aucune différence entre les groupes n’a été observée en termes de TTIH. Les résultats de l’étude IRMf révèlent des différences d’activations corticales en lien avec la tâche de Poffenberger. Dans les groupes d’autistes et de typiques, l’efficacité de la communication interhémisphérique était associée à différentes portions du corps calleux (frontales/motrices chez les typiques, postérieures/visuelles chez les autistes). De façon globale, les résultats de cette étude démontrent un patron atypique de transfert interhémisphérique de l’information visuomotrice en autisme, reflétant un rôle plus important des mécanismes visuels dans le comportement sensorimoteur possiblement en lien avec une réorganisation cérébrale. Les résultats des études comportementales 2 et 3 indiquent que les autistes excellent dans la tâche mesurant la vitesse de traitement perceptif alors que les Asperger accomplissent la tâche à des niveaux similaires à ceux des typiques. La nature des déficits moteurs diffère aussi entre les deux sous-groupes; la dextérité et la coordination bimanuelle est affectée chez les individus Asperger mais pas chez les autistes, qui eux sont plus atteints au niveau de la rapidité unimanuelle. Les sous-groupes d’autistes et de syndrome d’Asperger sont caractérisés par des profils cognitifs différents dont les particularités perceptives et motrices font partie intégrante.
Resumo:
Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
Cette thèse s’inscrit au cœur du chantier de réflexion sur l’interaction entre les États et les entreprises multinationales qui s’impose dans le contexte de l’accélération actuelle du processus de mondialisation de l’économie capitaliste. Nous l’abordons sous l’angle plus particulier des multinationales et de leur engagement institutionnel au sein des organisations, associations, forums ou réseaux qui contribuent à la définition et parfois même à la gestion des différentes politiques publiques orientées vers le développement économique, l’innovation et le marché du travail. Quelles sont les différentes facettes de l’engagement institutionnel des filiales de multinationales au Canada ? Comment ces comportements peuvent-ils être influencés par les différentes caractéristiques et stratégies de ces entreprises ? Un modèle théorique large, empruntant des hypothèses aux nombreuses approches théoriques s’intéressant aux comportements généraux des multinationales, est testé à l’aide d’analyses quantitatives de données obtenues dans le cadre d’une enquête auprès des multinationales au Canada associée au projet international INTREPID. D’abord, cette thèse permet une opérationnalisation plus précise du concept d’« imbrication de la firme » à travers la notion d’engagement institutionnel. Elle met en évidence les différentes dimensions de ce phénomène et remet en question la vision « essentiellement » positive qui l’entoure. Les résultats de cette thèse viennent questionner de la centralité des approches macro-institutionnalistes, particulièrement celle associée aux Variétés du capitalisme, dans les études sur les multinationales. Ils réaffirment par contre l’importance des différentes approches économiques et démontrent plus particulièrement la pertinence de la théorie de la dépendance aux ressources et l’impact de la présence d’un acteur structuré venant faire le contrepoids aux gestionnaires. Malgré nos efforts de théorisation, nous sommes incapable d’observer un effet modérateur des facteurs stratégiques sur l’impact du pays d’origine dans la détermination de l’engagement institutionnel. Cette thèse offre des indications permettant de cibler les interventions institutionnelles qui cherchent à « attacher » les multinationales à l’économie canadienne. Elle met aussi en évidence la contribution d’acteurs indirects dans la consolidation des relations d’engagement institutionnel et plus particulièrement le rôle positif que peuvent jouer les syndicats dans certains forums ou réseaux.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.
Resumo:
Les collaborations interorganisationnelles apparaissent de plus en plus incontournables pour s’attaquer concrètement, et avec quelques chances de résultats, à nos problèmes et défis collectifs les plus importants, que ce soit dans les domaines de l’environnement, de la santé ou de la sécurité publique. Ces initiatives de gouvernance collaborative surpassent chacune des organisations individuelles pour décider et intervenir collectivement. Dans cette visée, cette recherche contribue à mieux comprendre le processus de concertation et les interactions entre les acteurs et les organisations qui participent à des initiatives de collaboration interorganisationnelle où de nombreuses parties prenantes sont interpellées. Plus précisément, cette étude porte sur la problématique des réseaux d’acteurs et de la gouvernance en sécurité routière au Québec. Nous nous sommes penchés sur l’expérience de la Table québécoise de la sécurité routière (TQSR) afin de comprendre les enjeux actuels de représentation et de concertation en matière d’action gouvernementale. Cette recherche examine le rôle de l’identité des acteurs et de leurs interactions dans les processus de construction de consensus et de prise de décision, de même que les divers enjeux de communication inhérents à ce genre d’exercice collectif. Nous démontrons également qu’un facteur de succès d’une collaboration interorganisationnelle repose sur la capacité des acteurs à construire une identité collective malgré leurs intérêts divergents et parfois opposés. Cette thèse améliore donc notre compréhension des mécanismes et des processus à la base des collaborations interorganisationnelles comme pratique de gouvernance collaborative, un mode de gestion de plus en plus utilisé dans l’administration de nos sociétés contemporaines. Cette thèse contribue également à montrer la manière dont les organisations se construisent et se maintiennent localement par l’entremise de la communication et de ses modalités.
Resumo:
Le risque de chute est une problématique bien présente chez les personnes âgées ou ayant une atteinte neurologique et reflète un déficit des mécanismes neuronaux assurant l’équilibre. De précédentes études démontrent que l’intégration des informations sensorielles est essentielle au contrôle de l’équilibre et que l’inhibition présynaptique (IP) serait un mécanisme important dans le contrôle de la transmission sensorielle. Ainsi, le but de cette étude était d’identifier la contribution du mécanisme d’IP à l’induction de réponses posturales efficaces suite à une perturbation d’équilibre. Notre hypothèse est qu’une diminution d’IP contribuerait à l’induction des ces réponses, en augmentant l’influence de la rétroaction sensorielle sur les réseaux de neurones spinaux. Afin de démontrer cette hypothèse, nous avons d’abord évalué l’excitabilité spinale pendant les perturbations vers l’avant ou vers l’arrière, à l’aide du réflexe H. L’excitabilité spinale était modulée selon la direction de la perturbation et cette modulation survenait dès 75 ou 100 ms (p<0.05), soit avant l’induction des réactions posturales. Puis, à l’aide de techniques plus précises de convergence spinale, nous avons démontré que l’IP était diminuée dès 75 et 100 ms dans les deux directions, suggérant que la transmission des informations sensorielles vers la moelle épinière est accrue juste avant le déclenchement de la réponse posturale. Cette étude met en évidence un mécanisme-clé permettant d’augmenter la rétroaction des informations sensorielles nécessaires à l’induction de réponses posturales appropriées. L’évaluation de ce mécanisme pourrait mener à une meilleure identification des individus à risque de chute.
Resumo:
In a global context of climate change and energy transition, Quebec seems to be privileged, producing a large amount of cheap hydroelectricity. But aside from the established popular belief that Quebec’s energy is abundant, clean and inexpensive, Quebec’s energy future is still precarious. Within a few decades, Quebec will have to import a significant amount of electricity at a higher price than it actually produces it; the cheap exploitable hydro resources will not only get scarcer if not nonexistent; and the national hydroelectric ``cultural`` heritage even seems to quell the development of alternative energies, letting few space for local innovation coming from municipalities. While in many countries, municipalities are recognised as key figures in the energy sector, here, in Quebec, their role in the national energy system seems marginal. As main actors responsible for territorial planning, it seams that municipalities could play a more important role on Quebec’s energy scene. So they can densify their territory, develop active and collective solutions to transportation issues, they can adopt exemplary energetic habits, they can produce their own energy with wind, solar or even district heating systems. District heating and heat networks being less well know and documented in Quebec, the present study aims at explaining their low penetration level in the Quebec energy landscape. The study also attempts to understand what are the main hurdles to the implementation of district heating in Quebec’s particular energetic context. Finally, the research tries to open a discussion on the motives that could incite municipalities to adopt district heating as an energy alternative. Based on some twenty interviews with key actors of the energy and municipal sectors, the findings give some indications that the low penetration level of district heating in the Quebec municipalities could explain itself in part by : the low priced hydroelectricity, the presence of a comfortable, sufficient and pervasive Hydro-Quebec(er) culture, and also by organizational dynamic and a certain political inertia which limit the appropriation of an energy competence by local governments. In turn, the study shows that district heating solutions are more likely to develop in contexts in which : there are minimum urban or energy density levels; the development of district heating coincides with the local or regional economic structure; and where exist a mobilising local leader or local visions from a community in favor of the implementation of alternative energy systems.
Resumo:
Depuis les années 1980, les archéologues ont remarqué l'originalité des collections de céramiques trouvées sur des sites occupés par les pêcheurs basques au cours du XVIe au XVIIIe siècle sur les côtes atlantiques du Canada. Le site de Red Bay (Labrador) a été le premier à fournir une riche collection de terre cuites communes, majoliques et grès, qui ont permis aux archéologues de reconnaître une tradition céramique distincte. Pendant plus de deux siècles, ces céramiques constituent un fil conducteur qui montre la permanence des activités commerciales basques au Canada. En utilisant une approche mutualiste et comparative de quatre sites de pêche basque (Red Bay (1530-1580), Anse-à-la-Cave (1580-1630), Petit-Mécatina (1630-1713), Pabos (1713- 1760)) et leurs ports d’attache dans l’Europe atlantique, nous observons comment à partir du milieu du XVIe siècle, l’ensemble des céramiques se transforme d'un endroit à l’autre sans perdre son air distinctif jusqu'au début du XVIIIe siècle quand les témoins des céramiques basques changent radicalement. Finalement, une perspective globale qui relie les deux côtes atlantiques par le biais de ces matériaux céramiques nous aide à mieux connaître les réseaux d'approvisionnement liés aux traversées de pêche et l’espace économique complexe qui s’articule aux routes maritimes et de l’intérieur. Ces deux éléments se veulent essentiels à la compréhension de l'expansion outremers, ses materiaux laissés et son rôle dans l'économie mondiale au début de l'époque moderne.
Resumo:
The purpose of this research is to find out whether higher levels of education cause the exodus of Quebec’s Chinese skilled worker immigrants to other provinces. I first examine the history of Chinese immigration in Canada; the federal and Quebec’s immigration policies and selection criteria, as well as statistics regarding Chinese migration to Quebec and their out- migration from the province. My study’s ethnographic findings suggest that higher levels of education are not the main cause of the exodus, nor is the lack of French language competence. Rather, kin ties, age, and marital status play an influential role on interprovincial-migration of Quebec’s Chinese skilled immigrants. While based on a small number of respondents, my study indicates that having personal networks in Quebec before immigration tends to retain immigrants in the province.
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
Les restructurations et les mutations de plus en plus nombreuses dans les entreprises font évoluer la trajectoire de carrière des employés vers un cheminement moins linéaire et amènent une multiplication des changements de rôle (Delobbe & Vandenberghe, 2000). Les organisations doivent de plus en plus se soucier de l’intégration de ces nouveaux employés afin de leur transmettre les éléments fondamentaux du fonctionnement et de la culture qu’elles privilégient. Par contre, la plupart des recherches sur la socialisation organisationnelle portent sur les « meilleures pratiques », et les résultats qui en découlent sont mixtes. Cette étude comparative cherche à déterminer si et sur quelles variables les nouveaux employés socialisés par leur entreprise diffèrent des nouveaux employés « non socialisés ». Premièrement, cette étude vise à comparer ces deux groupes sur 1) les résultantes proximales (la maîtrise du contenu de la socialisation organisationnelle et la clarté de rôle) et 2) les résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter) du processus de socialisation organisationnelle, ainsi que sur 3) les caractéristiques des réseaux sociaux d’information, en contrôlant pour la proactivité. Dans un second temps, cette étude a pour objectif d’explorer si le processus de socialisation organisationnelle (les relations entre les variables) diffère entre les nouveaux employés socialisés ou non. Cinquante-trois nouveaux employés (moins d’un an d’ancienneté) d’une grande entreprise québécoise ont participé à cette étude. L’entreprise a un programme de socialisation en place, mais son exécution est laissée à la discrétion de chaque département, créant deux catégories de nouveaux employés : ceux qui ont été socialisés par leur département, et ceux qui n’ont pas été socialisés (« non socialisés »). Les participants ont été sondés sur les stratégies proactives, les résultantes proximales et distales et les caractéristiques des réseaux sociaux d’information. Pour le premier objectif, les résultats indiquent que les nouveaux employés socialisés maîtrisent mieux le contenu de la socialisation organisationnelle que les nouveaux employés non socialisés. En ce qui a trait au deuxième objectif, des différences dans le processus de socialisation organisationnelle ont été trouvées. Pour les nouveaux employés « non socialisés », la recherche proactive d’informations et la recherche de rétroaction sont liées à certaines caractéristiques des réseaux sociaux, alors que le cadrage positif est lié à la satisfaction au travail et à l’intention de quitter, et que la clarté de rôle est liée uniquement à la satisfaction au travail. Les nouveaux employés socialisés, quant à eux, démontrent des liens entre la maîtrise du contenu de la socialisation organisationnelle et chacune des résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter). Globalement, l’intégration des nouveaux employés non socialisés serait plutôt influencée par leurs stratégies proactives, tandis que celle des nouveaux employés non socialisés serait facilitée par leur maîtrise du contenu de la socialisation organisationnelle. De façon générale, cette étude comparative offre un aperçu intéressant des nouveaux employés rarement trouvé dans les recherches portant sur les « meilleures pratiques » de la socialisation organisationnelle. Des recommandations pour la recherche et la pratique en suivent.