935 resultados para Processeur réseau
Resumo:
Implanté en 1999 dans le quartier Centre-Sud à Montréal, le programme d'intervention psychosociale « Bien dans mes baskets » (BdmB) utilise le basketball comme outil pour entrer en contact avec des jeunes à risque de délinquance. Ce programme se distingue par le fait que ses entraîneurs-travailleurs-sociaux (ETS) interviennent tant dans le développement d'habiletés de vie que d’habiletés sportives. La présente étude vise à comprendre comment les expériences vécues au sein de BdmB ont pu contribuer au développement d’habiletés de vie chez les adolescents qui ont participé au programme lorsqu’ils étaient à l’école secondaire. Une méthodologie rétrospective qualitative a été utilisée pour cette étude. Des entretiens semi-dirigés ont été effectués auprès de 14 anciens athlètes-étudiants (AÉ) masculins qui ont participé à BdmB pendant leurs études secondaires. Le verbatim des entretiens enregistrés a été transcrit afin de procéder à une analyse de contenu par thématique. Les résultats suggèrent que quatre principaux facteurs semblent contribuer au développement d’habiletés de vie chez certains participants : le modelage de l’ETS a permis aux AÉ de reproduire les comportements de leur entraîneur; le développement d’un sentiment d’attachement entre les joueurs a engendré la création d’un nouveau réseau social dans lequel les AÉ ont pu trouver du soutien social; une culture d’équipe influencée par la philosophie de BdmB semble avoir été intériorisée par les joueurs; et BdmB a agi dans certains cas comme facteur de protection contre des influences externes négatives. Les résultats suggèrent que le sport collectif combiné à des interventions psychosociales favoriserait le développement d’habiletés de vie.
Rôles et régulation du PI(4,5)P2 dans le remodelage cortical et la morphogénèse cellulaire en mitose
Resumo:
Doctorat réalisé en cotutelle avec le laboratoire de François Payre au Centre de Biologie du Développement à Toulouse, France (Université de Toulouse III - Paul Sabatier)
Resumo:
Cette thèse concerne la gouvernance des réseaux de politique publique. Elle cherche à mieux comprendre le phénomène par l’analyse des caractéristiques du réseau d’acteurs impliqués, les défis qui se posent relativement au processus de gouverne, et l’influence qui en résulte pour les interventions. Le cadre d’analyse s’appuie essentiellement sur deux théories de la sociologie des organisations, en l’occurrence la théorie de l’acteur stratégique (Crozier et Friedberg 1977), et la théorie des réseaux de politique publique (Rhodes 1997). Il s’agit d’une étude de cas portant sur le programme VIH/Sida en Haïti, celui-ci étant documenté à partir de données d’entretiens, d’observations et de groupes de discussion. Les résultats de la recherche sont structurés en quatre articles. Le premier article rend compte de l’étape préliminaire, mais non moins importante, de la recherche, c’est-à-dire le travail de terrain. Il présente les défis méthodologiques et éthiques inhérents à la rencontre entre chercheur et participants pour la coconstruction des savoirs, notamment dans le contexte de la recherche en santé mondiale. Le deuxième article analyse les caractéristiques du réseau d’acteurs et montre la nécessité de prendre en compte les attributs propres des acteurs en plus de la structure de leurs interactions pour comprendre la gouvernance des réseaux de politique publique. La plupart des analyses, surtout celles s’appuyant sur l’approche réseau, cherchent à comprendre comment la structure des relations entre les acteurs influence la gouverne, le contenu ou les résultats de politiques. Or, dans le cas du programme VIH en Haïti, il apparaît que ce sont en réalité les attributs des acteurs en termes de ressources et de pouvoir, qui orientent leurs interactions avec les autres acteurs. Le troisième article présente un cadre d’analyse et illustre, à partir de celui-ci, l’influence des outils et des structures, ainsi que du contexte sociopolitique et économique sur la gouvernance du programme VIH/Sida en Haïti. Il argumente ensuite sur les défis que cela pose à la coordination des interventions et à la mise en place des relations de partenariat au sein du réseau d’acteurs. Le quatrième article se penche sur l’émergence de besoins nouveaux chez les personnes vivant avec le VIH (PVVIH) et met en lumière la faiblesse des processus de planification à les cibler. Il renouvelle l’intérêt de l’approche participative, notamment dans le contexte des pays en développement, où il devient crucial d’adapter les interventions au contexte local en utilisant le potentiel et les ressources des communautés. L’étude a donc permis de montrer : 1) les liens qui existent entre les attributs des acteurs, la configuration particulière de leurs interactions et le processus de gouverne; 2) les défis qui résultent de l’influence des outils et structures mis en place, ainsi que des facteurs socioéconomiques et politiques sur le processus de gouverne, et enfin; 3) le lien qui existe entre le mode de gouvernance – via la participation - et la prise en compte des besoins émergents des PVVIH.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Dans un bassin versant, la connectivité hydrologique constitue un état hydrologique qui lie le versant à la zone riveraine. Ses impacts sur la production du débit et le transfert des éléments dissous vers le cours d’eau sont présumés substantiels. L’étude vise à 1) détecter les hydrotopes et les connexions hydrologiques à l’aide d’un réseau de puits qui permet la mesure des fluctuations de la nappe phréatique (NP); 2) identifier la variabilité spatio-temporelle et la signature géochimique des sources potentielles en eau à l’aide des éléments majeurs et traces et 3) examiner la contribution spatio-temporelle respective des sources en eau du bassin lors d’un événement de précipitation. L’étude s’effectue dans un bassin versant forestier du Bouclier canadien (l’Hermine). Nous démontrons l’existence de quatre hydrotopes représentant un gradient de convergence de l’eau, soulignant la diversité de comportement de NP. Les connexions hydrologiques se caractérisent par des coefficients de Spearman élevés des relations entre la profondeur de la NP et le débit, dans leur partie en aval, et s’enclenchent par le fill and spill. Le comportement de NP est influencé par la distance aux limites du bassin, l’horizonation du sol et la topographie souterraine. En somme, trois sources en eau se connectent à partir du versant vers la zone riveraine durant l’événement pluvial de manière chronologique: 1) les horizons B et la NP de l’ensemble du bassin (Sr); 2) les horizons LFH des zones de convergence (Ba et Zn) et 3) une dépression de sol humide sur le versant nord (Co et Mn).
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
Brooklyn est depuis quelques années un épicentre de la musique indépendante aux États-Unis. En utilisant la démarche ethnographique, l’auteur s’intéresse au rôle des médiateurs dans la définition du réseau socio-musical de la scène « indie » de Brooklyn à New York. Il met en relief la façon dont historiquement, le quartier brooklynois de Williamsburg est devenu un lieu important d’établissement des Brooklyn est depuis quelques années un épicentre de la musique indépendante aux États-Unis. En utilisant la démarche ethnographique, l’auteur s’intéresse au rôle des médiateurs dans la définition du réseau socio-musical de la scène « indie » de Brooklyn à New York. Il met en relief la façon dont historiquement, le quartier brooklynois de Williamsburg est devenu un lieu important d’établissement des musiciens alternatifs. Il aborde la façon dont les hipsters, comme communauté, font appel à différentes pratiques pour contourner le rapport d’infériorité avec les étiquettes majors. Il s’intéresse aussi au « do it yourself » ainsi qu’au rôle de New York dans le milieu musical mondial. Finalement, il s’intéresse aux médias qui définissent et structurent le milieu de la musique indépendante de Brooklyn.
Resumo:
Le mouvement masticatoire est généré et coordonné par un générateur de patron central (GPC) situé au niveau du pont. Plusieurs résultats antérieurs de notre laboratoire soutiennent que le réseau de neurones à l’origine de la rythmogénèse est situé dans le noyau sensoriel principal du nerf trijumeau (NVsnpr). Ces mêmes expériences révèlent que des diminutions de la concentration calcique extracellulaire ([Ca2+]e) tiennent une place importante dans la génération des bouffées de décharges des neurones de cette région. Notre laboratoire tente de vérifier si la contribution des astrocytes à l’homéostasie de la concentration calcique extracellulaire est impliquée dans la genèse du rythme. Cette étude a pour but la caractérisation spatiale du syncytium astrocytaire au sein du NVsnpr dorsal et l’étude de l’effet de la [Ca2+]e sur les propriétés astrocytaires électrophysiologiques et de connectivité. Nous avons utilisés pour ce faire la technique d’enregistrement par patch-clamp sur une préparation en tranche de tronc cérébral de rat. Nous démontrons ici que la diminution de la [Ca2+]e n’affecte pas les propriétés électrophysiologiques astrocytaires, mais induit une augmentation de la taille du syncytium. De plus, nous établissons l’existence au sein du NVsnpr dorsal d’une organisation anatomofonctionnelle du réseau astrocytaire calquée sur l’organisation neuronale.
Resumo:
Ce mémoire porte sur les raisons qu’ont de jeunes adultes québécois de discuter ou non de politique sur Internet. Il s’inscrit dans le contexte général de l’avènement du Web 2.0 et dans le contexte particulier des élections canadiennes de mai 2011. Au niveau théorique, nous avons mobilisé la théorie de l’agir communicationnel du philosophe allemand Jürgen Habermas ainsi que sa conception de la sphère publique. Du point de vue méthodologique, nous avons étudié un échantillon composé de jeunes adultes québécois, hommes et femmes, âgés de 19 à 30 ans, qui habitent à Montréal et dans ses environs. Ces jeunes citoyens ont été interrogés dans le cadre de quatre focus groups. Les données recueillies ont été analysées selon une méthode d’extraction des arguments en accord avec la méthodologie de la reconstruction rationnelle. Les résultats ont permis d’exposer plusieurs raisons qu’ont avancées les jeunes adultes interrogés pour expliquer leur degré de participation à des discussions politiques sur Internet. Celles-‐ci ont été regroupées en quatre thèmes: le manque de connaissances et l’aspect public; la conscientisation et l’obtention de feedback; la réaction par rapport au contenu, la composition du réseau et la valeur de l’information; le face à face, l’anonymat et les sujets controversés. Ces résultats ont été discutés en considérant ceux obtenus par d’autres chercheurs afin de faire ressortir les apports de cette étude au domaine de la communication. La discussion a également permis d’adopter un point de vue théorique critique pour explorer ce que les résultats de ce mémoire révèlent sur l’état de la sphère publique québécoise.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.
Resumo:
Le virus Herpès simplex de type 1 (HSV-1), agent étiologique des feux sauvages, possède une structure multicouche comprenant une capside icosaédrale qui protège le génome viral d’ADN, une couche protéique très structurée appelée tégument et une enveloppe lipidique dérivant de la cellule hôte et parsemée de glycoprotéines virales. Tous ces constituants sont acquis séquentiellement à partir du noyau, du cytoplasme et du réseau trans-golgien. Cette structure multicouche confère à HSV-1 un potentiel considérable pour incorporer des protéines virales et cellulaires. Toutefois, l’ensemble des protéines qui composent ce virus n’a pas encore été élucidé. De plus, malgré son rôle critique à différentes étapes de l’infection, le tégument demeure encore mal défini et ce, tant dans sa composition que dans la séquence d’addition des protéines qui le composent. Toutes ces incertitudes quant aux mécanismes impliqués dans la morphogenèse du virus nous amènent à l’objectif de ce projet, soit la caractérisation du processus de maturation d’HSV-1. Le premier article présenté dans cette thèse et publié dans Journal of Virology s’attarde à la caractérisation protéique des virus extracellulaires matures. Grâce à l’élaboration d’un protocole d’isolation et de purification de ces virions, une étude protéomique a pu être effectuée. Celle-ci nous a permis de réaliser une cartographie de la composition globale en protéines virales des virus matures (8 protéines de la capside, 23 protéines du tégument et 13 glycoprotéines) qui a fait la page couverture de Journal of Virology. De plus, l’incorporation potentielle de 49 protéines cellulaires différentes a été révélée. Lors de cette étude protéomique, nous avons aussi relevé la présence de nouveaux composants du virion dont UL7, UL23, ICP0 et ICP4. Le deuxième article publié dans Journal of General Virology focalise sur ces protéines via une analyse biochimique afin de mieux comprendre les interactions et la dynamique du tégument. Ces résultats nous révèlent que, contrairement aux protéines ICP0 et ICP4, UL7 et UL23 peuvent être relâchées de la capside en présence de sels et que les cystéines libres jouent un rôle dans cette relâche. De plus, cet article met en évidence la présence d’ICP0 et d’ICP4 sur les capsides nucléaires suggérant une acquisition possible du tégument au noyau. La complexité du processus de morphogenèse du virus ainsi que la mise en évidence d’acquisition de protéines du tégument au noyau nous ont incités à poursuivre nos recherches sur la composition du virus à un stade précoce de son cycle viral. Les capsides C matures, prémisses des virus extracellulaires, ont donc été isolées et purifiées grâce à un protocole innovateur basé sur le tri par cytométrie en flux. L’analyse préliminaire de ces capsides par protéomique a permis d’identifier 28 protéines virales et 39 protéines cellulaires. Les données recueilles, comparées à celles obtenues avec les virus extracellulaires, suggèrent clairement un processus séquentiel d’acquisition des protéines du tégument débutant dans le noyau, site d’assemblage des capsides. Finalement, tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation d’HSV-1 via l’utilisation de techniques variées et innovatrices, telles que la protéomique et la cytométrie en flux, pouvant être appliquées à d’autres virus mais aussi permettre le développement de meilleurs traitements pour vaincre l’HSV-1.
Resumo:
Aux lendemains de la Guerre de Sécession, le petit centre manufacturier de Warren, dans l’État du Rhode Island, attira plusieurs immigrants canadiens-français en quête de travail. Ces derniers s’organiseront rapidement en établissant un réseau paroissial, en fondant plusieurs sociétés mutuelles et en multipliant les commerces prêts à desservir une clientèle francophone de plus en plus nombreuse. Les premiers stades de développement de la communauté (1888-1895) avaient déjà été observés par Jean Lamarre dans le cadre de son mémoire de maîtrise (1985). D’une part, le chercheur avait remarqué un phénomène graduel d’enracinement des paroissiens et, d’autre part, l’analyse de leur profil socio-économique indiquait qu’ils travaillaient majoritairement à la filature. Par cette étude, nous avons voulu revisiter cette communauté au moment où sa présence dans le paysage industriel et urbain de Warren apparaît consolidée. Grâce aux listes nominatives du recensement fédéral de 1910 et aux publications gouvernementales parues à la même époque, nous évaluons l’ampleur des changements socio-économiques transformant la communauté en l’espace d’une quinzaine d’années. L’observation du processus d’intégration des Canadiens français à l’environnement industriel est complétée par une analyse de l’apport des femmes et des enfants au ménage ouvrier. Les conclusions principales de cette étude démontrent que malgré l’attrait indéniable que représente encore et toujours le secteur manufacturier auprès de nombreux travailleurs, les Canadiens français jouissent en 1910 d’une qualité de vie généralement supérieure à celle qui caractérisait leurs débuts au sein de la localité. Leur situation socio-économique s’apparentera d’ailleurs davantage à celle des anglophones de Warren, Yankees et Irlandais, que de celle des représentants de la « nouvelle vague d’immigration » (Polonais, Italiens et Portugais).
Resumo:
Le sujet de cette thèse est l'étude des progressions arithmétiques dans les nombres entiers. Plus précisément, nous nous intéressons à borner inférieurement v(N), la taille du plus grand sous-ensemble des nombres entiers de 1 à N qui ne contient pas de progressions arithmétiques de 3 termes. Nous allons donc construire de grands sous-ensembles de nombres entiers qui ne contiennent pas de telles progressions, ce qui nous donne une borne inférieure sur v(N). Nous allons d'abord étudier les preuves de toutes les bornes inférieures obtenues jusqu'à présent, pour ensuite donner une autre preuve de la meilleure borne. Nous allons considérer les points à coordonnés entières dans un anneau à d dimensions, et compter le nombre de progressions arithmétiques qu'il contient. Pour obtenir des bornes sur ces quantités, nous allons étudier les méthodes pour compter le nombre de points de réseau dans des sphères à plusieurs dimensions, ce qui est le sujet de la dernière section.