951 resultados para Ventilator weaning - Theses
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Les siliciures métalliques constituent un élément crucial des contacts électriques des transistors que l'on retrouve au coeur des circuits intégrés modernes. À mesure qu'on réduit les dimensions de ces derniers apparaissent de graves problèmes de formation, liés par exemple à la limitation des processus par la faible densité de sites de germination. L'objectif de ce projet est d'étudier les mécanismes de synthèse de siliciures métalliques à très petite échelle, en particulier le NiSi, et de déterminer l’effet de l’endommagement du Si par implantation ionique sur la séquence de phase. Nous avons déterminé la séquence de formation des différentes phases du système Ni-Si d’échantillons possédant une couche de Si amorphe sur lesquels étaient déposés 10 nm de Ni. Celle-ci a été obtenue à partir de mesures de diffraction des rayons X résolue en temps et, pour des échantillons trempés à des températures critiques du processus, l’identité des phases et la composition et la microstructure ont été déterminées par mesures de figures de pôle, spectrométrie par rétrodiffusion Rutherford et microscopie électronique en transmission (TEM). Nous avons constaté que pour environ la moitié des échantillons, une réaction survenait spontanément avant le début du recuit thermique, le produit de la réaction étant du Ni2Si hexagonal, une phase instable à température de la pièce, mélangée à du NiSi. Dans de tels échantillons, la température de formation du NiSi, la phase d’intérêt pour la microélectronique, était significativement abaissée.
Resumo:
L’adhésine impliquée dans l’adhérence diffuse (AIDA-I) est une adhésine bactérienne présente chez certaines souches d’Escherichia coli qui, associée aux toxines Stx2e ou STb, contribue à l’apparition de la maladie de l’œdème ou de la diarrhée post-sevrage chez les porcelets. AIDA-I est un autotransporteur qui confère des capacités d’autoaggrégation, de formation de biofilms et d’adhésion. L’objectif principal du projet de recherche consistait en la recherche de récepteur(s) potentiel(s) d’AIDA-I. Les bactéries pathogènes adhèrent aux cellules-cibles soit en liant directement des molécules à la surface cellulaire ou en utilisant des molécules intermédiaires qui permettent de diminuer la distance séparant la bactérie de la cellule-cible. Puisque le sérum est un fluide qui contient de nombreuses molécules, celui-ci a été utilisé comme matériel de départ pour l’isolement de récepteur(s) potentiels. Nous avons isolé un récepteur potentiel à partir du sérum porcin : l’apolipoprotéine A-I. L’interaction entre l’apolipoprotéine A-I et AIDA-I a été confirmée par ELISA et microscopie à fluorescence. La capacité à envahir les cellules épithéliales offre aux pathogènes la possibilité d’établir une niche intracellulaire qui les protègent contre les attaques du milieu extérieur. La présente étude a démontré que la présence d’AIDA-I en tant que seul facteur de virulence chez une souche de laboratoire permet de conférer la capacité d’envahir les cellules sans promouvoir la survie intracellulaire. L’étude de la souche sauvage 2787, exprimant AIDA-I en association avec d’autres facteurs de virulence, a démontré une différence significative pour les phénotypes d’invasion et de survie intracellulaire face à la souche de laboratoire exprimant AIDA-I.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
D'objet de risée à symbole de l'Amérique : la télévision à travers le cinéma américain (1970 à 1999)
Resumo:
Cette analyse dresse le portrait des différentes représentations de la télévision à travers le cinéma américain de 1970 à 1999. Ce travail porte sur un corpus de quatorze films et s’intéresse à quatre dimensions de la télévision : l’appareil électrique, le téléspectateur, le contenu et l’univers professionnel. Les hypothèses soulevées sont que la télévision est majoritairement présentée de façon négative, que les représentations s’inscrivent dans un contexte culturel précis et qu’il y a un consensus entre les écrits universitaires et les cinéastes au sujet de l’écran cathodique. Bien que certaines critiques soient récurrentes d’une décennie à l’autre, il y a une évolution des représentations. Dans les années 1970, la télévision est un objet de risée. Son contenu est caricaturé et les professionnels qui travaillent pour la télévision sont personnifiés comme des êtres incompétents. Dans les années 1980, le petit écran est montré comme un objet dangereux. Sa très grande popularité en ferait un puissant diffuseur idéologique qui transforme tout en spectacle même la mort. Cette même popularité servira de prétexte aux cinéastes des années 1990 pour utiliser la télévision comme symbole de l’Amérique. Le portrait est peu flatteur : une Amérique corrompue, violente et en manque d’idéaux. Cette analyse montre également qu’au fil des décennies, les mêmes idées circulent entre cinéastes et penseurs américains. Enfin, cette attitude par rapport à la télévision est d’ailleurs symptomatique d’un mépris de l’élite intellectuel envers l’art populaire.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
La tradition sociologique oppose généralement deux thèses : individualiste et holiste. Ces caractérisations laissent entendre que la première thèse s’attarde à l’action des individus pour expliquer la société. Ce style s’est développé surtout en Allemagne grâce à Max Weber. La thèse holiste prend une position plus globale en expliquant la société par des faits sociaux. Celle-ci est dite française par l’entremise du père de la sociologie, Émile Durkheim. Pourtant, plusieurs auteurs français ont snobé la tradition allemande pour ramener à l’avant-scène un compatriote qui s’est opposé à Durkheim : Gabriel Tarde. Ces réintroductions ont été produites pour s’opposer aux thèses durkheimiennes qui laisseraient l’individu victime du contexte social dans lequel il se trouve. La sociologie allemande propose déjà une opposition de ce type avec les théories postulant un objet réel et particulier à la sociologie. Pourquoi réintroduire un auteur disparu en sociologie pour prendre la place d’autres qui sont encore là? L’hypothèse serait que Tarde propose un individualisme différent qui se traduirait par une notion d’individu particulière. L’étude comparative du corpus durkheimien et tardien révèle pourtant que ces deux auteurs partagent la plupart des caractéristiques associées à la définition du sens commun de l’individu. L’opposition entre Durkheim et Tarde ne relève pas de la place de l’individu dans la science sociale, mais d’une interprétation différente de certains aspects de la théorie statistique. Ces théories sociales ont été construites grâce à cette notion ce qui laisse penser que certains des problèmes explicatifs de ces dernières pourraient être liés à cette base.
Resumo:
Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.
Resumo:
Cette étude cherche à établir un rapport entre les nombreuses références positives à l’animal présentes dans le corpus cynique et une certaine conception de l’activité philosophique mise de l’avant par ces philosophes et, plus particulièrement, incarnée par la figure de Diogène de Sinope. Comme il le sera brièvement montré dans la première partie, l’animal est un concept pratiquement absent de la pensée grecque qui tend à penser l’unité du vivant. Il ne peut faire son apparition que dans un contexte moral afin de fonder les normes de l’agir proprement humain, et dans ce contexte, les références positives à l’animal sont plutôt rares. La position des philosophes cyniques, qui exhortent fréquemment les hommes à s’inspirer des animaux afin d’atteindre la vertu, est donc, à cet égard, excessivement singulière. Comment interpréter ce renversement de perspective où l’homme ne semble plus occuper la position intermédiaire entre les immortels et les bêtes? En examinant les thèses de Thierry Gonthier, d’Ovide Florès-Junior et de Marie-Odile Goulet-Cazé sur la question, la deuxième partie de cette étude nous mettra sur la voie de la rhétorique d’exhortation qui, nous le verrons, est constitutive même de la pratique philosophique cynique. Il reste cependant à déterminer à quoi, plus précisément, les philosophes cyniques exhortent leurs concitoyens et, ce qui est pour cette étude le nœud du problème, dans quelle mesure la figure de l’animal est-elle susceptible de nous renseigner. La troisième partie de cette étude portera ainsi sur l’idéal de sagesse cynique et sur la figure emblématique du mouvement, le chien. Nous tâcherons alors de montrer, en prolongeant les lectures qu’en ont faites Jean-Marie Meilland, D. Deleule et Peter Sloterdijk, que la valorisation de l’animal chez les cyniques ne doit pas être comprise comme un vil appel à la régression en l’animalité mais plutôt comme la promotion d’une singulière conception de l’activité philosophique.
Resumo:
Les chercheurs s’étant penchés sur les facteurs influençant la décision du suspect de confesser son crime ont mis en évidence que deux facteurs sont principalement influents : la force de la preuve (Des Lauriers-Varin et St-Yves, 2006; Moston et al., 1992) et la conduite de l’enquêteur (Holmberg et Christianson, 2002; Kebell et al., 2005). Par contre, les contradictions entre ces études ont apporté davantage de confusion que de réponses à la pratique. Cette étude vise donc à explorer l’incidence de ces deux facteurs sur l’inclination du suspect à confesser son crime et les possibles interactions entre eux. Pour ce faire, 50 enregistrements vidéo d’interrogatoires d’homicide furent visionnés et les données furent soumises à des analyses statistiques et qualitatives. Les résultats d’une régression logistique démontrent que la conduite de l’enquêteur est le facteur prédominant pour prédire l’obtention d’aveux du suspect en contrôlant pour l’effet des variables statiques et de la preuve. Également, les résultats mettent en évidence qu’en augmentant les attitudes et comportements associés à une conduite « positive », l’enquêteur augmentait les probabilités d’aveux du suspect. De plus, les résultats indiquent que l’augmentation du nombre d’éléments de preuves est associée à une plus grande démonstration de « rapport de force » de la part de l’enquêteur. Les résultats sont discutés en relation à l’effet des principaux facteurs sur les schémas et dynamiques prenant place entre l’enquêteur et le suspect.
Resumo:
Dans le cadre de ce mémoire, nous nous penchons sur les relations du travail (RT) dans les entreprises multinationales (EMs) ayant des opérations au Canada. Notre question de recherche est la suivante: « Le pays d’origine d’une entreprise multinationale a-t-il un impact sur les pratiques de relations du travail dans ses opérations canadiennes? » Deux thèses principales ont été élaborées afin d’expliquer les choix des EMs dans l’adoption et l’implantation de pratiques. La première thèse, celle de la diversité, tient pour acquis que plusieurs déterminants endogènes et exogènes à l’EM influencent ses pratiques (Mcgraw et Harley, 2003). Tant les caractéristiques du pays hôte que celles du pays d’origine influenceraient les choix de pratiques des EMs contribuant ainsi à leur diversité (Almond et al., 2005). Par exemple, certains chercheurs avancent que les EMs sont littéralement imprégnées des caractéristiques provenant du pays qui les a vues naître, qu’elles feraient littéralement partie de leur ADN affectant ainsi les pratiques qu’elles mettent en place dans leurs filiales à l’étranger (Berger, 2006). Par ailleurs, la thèse de la convergence soutient que les EMs auraient tendance à utiliser les mêmes pratiques en cette ère de mondialisation et d’hégémonie économique américaine (Mcgraw et Harley, 2003). Les tenants de cette thèse croient plutôt à une convergence des pratiques à travers les EMs en raison notamment de la vaste diffusion du modèle anglo-saxon de gestion, de l’approche des best pratices et du one best way (Mcgraw et Harley, 2003; Royle, 2006). Convergence ou divergence des pratiques? Le débat demeure entier dans la littérature. Outre sa contribution à ce débat, notre recherche permet d’en apprendre davantage sur le comportement des EMs étrangères au Canada, mais aussi d’examiner les spécificités des EMs canadiennes. Le modèle conceptuel développé par ce mémoire se base sur la thèse de la diversité en examinant plus particulièrement l’effet du pays d’origine. Selon la littérature, plusieurs variables influencent les pratiques des EMs, soit le pays d’origine (Almond et al., 2005; Kvinge et Ulrichsen, 2008; Marginson, 2008; Edwards et Ferner, 2002; Collings, 2003; Ferner, 1997, Moore et Rees, 2008; etc.) et les caractéristiques propres à l’EM (Bartlett et Ghosal, 1998; Kidger, 2002; Perlmutter, 1969; Edwards, 2003). Aux fins de notre recherche, notre variable dépendante, les pratiques de RT, comporte cinq dimensions, soit la reconnaissance syndicale des nouveaux établissements, la politique d’implication du syndicat, la perception à l’égard des représentants syndicaux, la structure de la négociation collective et l’autonomie de la filiale dans l’élaboration de politiques en matière de RT (Bélanger et al., 2006). L’hypothèse principale de notre recherche est : le pays d’origine d’une EM a un impact sur le choix des pratiques de RT dans ses opérations canadiennes. Cinq sous-hypothèses, touchant cinq dimensions du concept de RT, ont été testées : 1) les EMs américaines reconnaissent moins souvent le syndicat dans leurs nouveaux établissements que les EMs d’autres pays; 2) les EMs américaines ont une moins bonne perception patronale du syndicat que celles provenant d’autres pays; 3) les négociations collectives sont plus décentralisées dans les EMs américaines que dans celles d’autres pays; 4) les EMs américaines impliquent moins les syndicats dans la prise de décision que celles provenant d’autres pays; 5) l’autonomie dans l’élaboration de politiques concernant la représentation syndicale est plus faible dans les EMs américaines que dans les EMs d’autres pays. Sur le plan méthodologique, cette étude utilise des données secondaires provenant de l’Enquête sur la gestion des ressources humaines, les politiques publiques et la chaîne de valeur mondiale menée par Bélanger, Harvey, Jalette, Lévesque et Murray (2006). Nous étudions un sous-échantillon de la base de données, soit une centaine d’EMs dont les employés sont syndiqués. Les résultats indiquent que les opérations canadiennes des EMs canadiennes se différencient de celles des EMs américaines par une meilleure perception patronale des syndicats et une plus grande implication syndicale. De plus, les EMs européennes reconnaissent plus le syndicat dans leurs nouveaux établissements, perçoivent davantage de la collaboration de la part du syndicat et octroient une plus grande autonomie en matière de RT à leurs opérations canadiennes que les EMs américaines. Enfin, les opérations canadiennes des EMs du reste du monde se distinguent de celles des EMs américaines par une meilleure perception patronale de collaboration de la part du syndicat.
Resumo:
Résumé L’objectif de cette étude était de déterminer les effets de la source de sélénium sur les concentrations de Se et de GSH-Px des vaches de boucherie (n =33) et leurs veaux et sur des paramètres immunitaires des veaux. Deux groupes de vaches ont reçu 3 mg/j/animal de Se organique ou inorganique dans le minéral. Le troisième groupe n'a pas été supplémenté en Se et leurs veaux ont été divisés en deux sous-groupes, l’un des deux a reçu une injection de sélénite de sodium (0,087 mg/Kg) à la naissance. Le Se et la GSH-Px ont été respectivement mesurés par HPLC-UV et par cinétique enzymatique. La phagocytose, la flambée respiratoire et le ratio CD4:CD8ont été évalués par des kits commerciaux et les IgG totales ont été mesurés par immunodiffusion radiale. La supplémentation de Se a augmenté significativement le Se sérique et colostral (P<0,02) et la GSH-Px(P≤0,04) pour les vaches et leurs veaux avec un effet significativement plus élevé pour le Se organique. Le Se du lait a augmenté de façon significative uniquement avec la source organique du Se (P≤0,0007). L’injection du Se chez les veaux a permis une augmentation significative mais temporaire (P<0,0001) du Se sérique. La supplémentation en Se n’a pas influencé les paramètres immunitaires mesurés (P>0,01, non significatif après correction de Bonferroni). Nous concluons que la supplémentation en Se améliore le niveau du Se colostral, lacté et sérique ainsi que la GSH-Px pour les vaches et leurs veaux sans effet sur les paramètres immunitaires mesurés des veaux. Mots clés: Sélénium, veaux de boucherie, phagocytose, flambée respiratoire, anticorps, ratio CD4:CD8, GSH-Px.
Resumo:
L’inflammation est un procédé complexe qui vise l’élimination de l’agent causal de dommages tissulaires en vue de faciliter la réparation du tissu affecté. La persistance de l’agent causal ou l’incapacité à résoudre l’inflammation mène à un dérèglement homéostatique chronique qui peut avoir une incidence sur la morbidité et la mortalité. L’athérosclérose est une condition inflammatoire chronique des vaisseaux sanguins dont l’origine est multifactorielle. L’hypertension et l’état infectieux représentent respectivement des facteurs de risque classiques et émergents du développement de cette maladie. Les fondements initiaux de l’inflammation font intervenir l’immunité innée, la première ligne de défense dont disposent les cellules pour répondre à un signal de danger. Le but de cette thèse est d’examiner le rôle pro-inflammatoire d’une famille de kinases essentielles à l’immunité innée, soit celle des kinases de IkappaB (IKK) et des kinases IKK-related. Les kinases IKKalpha et IKKbeta forment le complexe IKK avec la molécule adaptatrice NEMO/IKKgamma. Ce complexe est chargé d’effectuer la phosphorylation de l’inhibiteur de NF-kappaB, IkappaBalpha, ce qui mène à sa dégradation et à la libération du facteur de transcription NF-kappaB. Nous montrons que le peptide vasoactif angiotensine II (AngII) induit l’activité phosphotransférase d’IKKbeta dans les VSMC par immunoprécipitation de NEMO puis essai kinase in vitro. Grâce à une approche ARN interférence (ARNi) dirigée contre IKK, nous montrons que cette kinase est responsable de la phosphorylation de p65/RelA. Nous montrons que le mécanisme d’induction de NF-kappaB par l’AngII est atypique, puisqu’il ne module pas IkappaBalpha, et montrons à l’aide d’inhibiteurs pharmacologiques que l’activation de p65 est indépendante des voies MEK-ERK-RSK, PI3K et de la transactivation du récepteur de l’EGF. Les kinases IKK-related Tank-binding kinase 1 (TBK1) et IKK-i sont quant à elles principalement activées suite à une infection bactérienne ou virale. Ces kinases phosphorylent directement le facteur de transcription interferon regulatory factor (IRF)-3. Nous montrons que le cytomégalovirus humain, un pathogène associé à l’athérosclérose, a la capacité d’induire l’activation de TBK1 dans les VSMC. L’usage d’ARNi dirigé contre TBK1 et IKKi montre que les 2 kinases sont impliquées dans l’activation d’IRF-3. De plus, nous montrons à l’aide d’une lignée de VSMC exprimant une version dominante négative d’IRF-3 que ce dernier est essentiel à la synthèse des chimiokines RANTES et IP-10, tel qu’analysé par RT-PCR. Par ailleurs, il a récemment été montré que les kinases IKK-related étaient étroitement liées à la transformation oncogénique, et que TBK1 était pro-angiogénique. Or, l’angiogenèse est le plus souvent modulée par la réponse hypoxique qui est d’ailleurs commune à la majorité des processus inflammatoires. Le facteur de transcription hypoxia inducible factor (HIF)-1 module l’angiogenèse, l’inflammation et la survie cellulaire. Nous montrons à l’aide de cellules Tbk1 et Ikbke -/- et d’une approche lentivirale que TBK1 est spécifiquement impliquée dans l’induction traductionnelle de HIF-1alpha en condition de stress hypoxique. L’expression de TBK1 est induite sous ces conditions, et cette kinase module la phosphorylation de ERK, RSK, Akt et TSC1. Les résultats originaux présentés dans cette thèse montrent donc que les kinases IKK et IKK-related exercent leurs actions pro-inflammatoires par des mécanismes distincts.
Resumo:
Considérées comme des moyens incontournables de participation à la société, les technologies de l’information et de la communication (TIC) constituent une piste de solution prometteuse pour l’enseignement et l’apprentissage auprès des élèves qui ont des incapacités intellectuelles. Toutefois, plusieurs auteurs dénoncent la faible utilisation des TIC en éducation de ces élèves. Pire encore, les recherches sur le sujet génèrent des résultats intéressants, mais d’une contribution limitée pour l’avancement des connaissances dans le domaine. Guidées par l’intuition et par un enthousiasme empirique évident, ces recherches s’appuient rarement sur des cadres de référence. Certes la documentation scientifique foisonne de champs de savoirs qui peuvent contribuer à ce domaine, mais ces contributions sont parcellaires et peu adaptées aux spécificités de ce dernier. L’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles demeure donc un champ conceptuel mal défini qui n'est légitimé par aucun cadre de référence en particulier. Cette recherche doctorale se situe en phase de préconception d’un modèle de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles. Elle vise à mettre en place des balises solides pouvant servir de cadre à l’élaboration d’un modèle de cette intervention. Dans cette phase de préconception, nous poursuivons deux objectifs, à savoir : 1) la mise au point d’un référentiel qui constitue un cadre intégrateur des connaissances existantes en la matière, qui servira avant tout à structurer et à organiser les informations disponibles à l’intérieur d’une synthèse validée par des experts et des intervenants oeuvrant auprès de ce type d’élèves et 2) l’élaboration d’un cahier des charges fonctionnel qui s’appuie sur le référentiel développé et qui précise les fonctions qu’un modèle idéal de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles devrait remplir pour répondre pleinement aux besoins de ses différents utilisateurs. Ces balises (le référentiel et le cahier des charges fonctionnel) sont destinées, principalement, à des chercheurs, des concepteurs de technologies, des formateurs d’enseignants, etc. Les élèves, les enseignants et autres agents de l'éducation pourront en bénéficier indirectement à travers les applications dérivées de ces balises (programmes de formation, technologies, recherches, scénarios pédagogiques, etc.).