175 resultados para Moyennes chaines
Resumo:
La nature a développé diverses stratégies afin d’assurer le commencement de la vie dans des conditions d’homoplasmie, c’est-à-dire des conditions telles que les cellules sont dotées du même ADN mitochondrial. Toutefois, des nouveaux haplotypes de l’acide désoxyribonucléique mitochondrial (ADNmt) peuvent apparaitre et croître de plusieurs façons tout au long de la durée d’une vie menant à l’hétéroplasmie. Par exemple, l’hétéroplasmie de l’ADNmt peut être créée artificiellement par des technologies reproductives assistées, ainsi que naturellement par le processus de vieillissement. De ce fait, la thèse de ce doctorat fut divisée en deux principaux objectifs. Le premier étant celui d’analyser les changements survenus dans l’hétéroplasmie de l’ADNmt produit par le transfert nucléaire des cellules somatiques (SCNT) lors du développement de l’embryon jusqu’au fœtus et aux tissus adultes de bovins clonés. En ce qui concerne le second objectif, il s’agit d’analyser les changements survenus dans l’hétéroplasmie de l’ADNmt causés par le vieillissement dans une cellule somatique adulte et dans des tissus germinaux durant l’ovogénèse, ainsi qu’au début de l’embryogenèse et dans la procédure de culture in vitro sur des souris. Dans la première série d’expériences sur des bovins, des fibroblastes fœtaux transportant une mutation d’ADNmt (insertion de 66 pb) furent fusionnés avec des ovocytes receveurs transportant l’ADNmt du type sauvage. La présence d’ADNmt venant de la cellule donneuse a été analysée à différents stades de développement, soit sur des embryons âgés de 17 jours (n=17), des fœtus âgés de 40 jours (n=3), des fœtus âgés de 60 jours (n=3), un fœtus âgé de 240 jours et 3 clones post-nataux âgés de 18 à 24 mois. Chaque individu s’est avéré être hétéroplasmique et 99 % (103/104) des échantillons de tissus analysés étaient également hétéroplasmiques. Cependant, l’ovaire venant du fœtus de 240 jours fut le seul à être homoplasmique pour l’ADNmt de l’ovocyte receveur. Dans la plupart des échantillons analysés (95,2 %, soit 99/104) la moyenne d’hétéroplasmie était de 1,46 %. Par contre, un fœtus âgé de 40 jours a présenté un niveau élevé d’hétéroplasmie (20,9 %), indiquant ainsi que des évènements rares d’augmentation de l’ADNmt des cellules donneuses peuvent survenir. Étant donné que la majorité des clones SCNT montrait de l’hétéroplasmie de l’ADNmt à des proportions comparables à celles des cellules donneuses au moment de la reconstruction de l’embryon, on a pu conclure que l’hétéroplasmie produite par des techniques de transfert nucléaire utilisant des cellules somatiques est due à une ségrégation neutre de l’ADNmt. Dans la seconde série d’expériences sur des souris, des femelles de différents âges, c.à.d. jeunes (0 – 8 mois), moyennes (8 – 16 mois) et vieilles (16 – 24 mois), ont été synchronisées (gonadotrophines) et sacrifiées dans le but d’obtenir des ovocytes au stade de vésicule germinal, et des ovocytes au stade métaphase-II produits in vivo et in vitro. De plus, des embryons in vivo et in vitro au stade de deux-cellules et des embryons au stade de blastocystes ont été obtenus de femelles jeunes. Différents tissus somatiques, venant de femelles des trois stades d’âge ont été obtenus : cerveau, foie, muscle et du cumulus ovocytaire. De plus, l’effet du vieillissement a été mesuré selon la fertilité de la femelle. En effet, les effets sur l’hétéroplasmie du vieillissement, du stade de développement et de la culture in vitro ont été mesurés dans des ovocytes et dans des embryons. Les effets du vieillissement sur les mitochondries ont été mesurés par rapport au nombre total de copies de l’ADNmt, au pourcentage des délétions communes et sur l’expression de trois gènes : Ndufs4, Mt-nd2 and Mt-nd4. Il a été possible d’observer que la fertilité des femelles dans la colonie de souris diminuait avec l’âge. En fait, le vieillissement affectait l’ADNmt dans les tissus somatiques, cependant il n’avait pas d’effet sur le cumulus, les ovocytes et les embryons. Le nombre de délétions de l’ADNmt augmentait pendant la reprise de la méiose et celui-ci diminuait au début du développement embryonnaire. La culture in vitro n’affectait pas la quantité d’ADNmt dans la plupart des tissus germinaux. Puisque nous n’avons pas trouvé d’effet de l’âge dans la majorité des paramètres mitochondriaux analysés dans les ovocytes et les embryons, il est suggéré que la délétion commune de l’ADNmt dans les tissus germinaux est davantage reliée au statut cellulaire de la production d’énergie qu’au processus de vieillissement. Deux sources différentes de mutations de l’ADNmt produites dans les ovocytes normaux ou reconstitués ont produit différents résultats d’hétéroplasmie au début de l’embryogénèse. Chez les bovins, l’hétéroplasmie artificielle impliquant une petite insertion (66 pb) dans la région non codante (D-loop) de l’ADNmt a été vraisemblablement non nocive pour l’embryon, tolérant la persistance de l’ADNmt étranger pendant les différents stades du développement des clones. Chez les souris, l’hétéroplasmie naturelle produite par une grande délétion (4974 pb délétion commune) dans la région codante de l’ADNmt a été vraisemblablement nocive pour l’embryon et par conséquent éliminée pour assurer l’homoplasmie au début du développement embryonnaire.
Resumo:
L’arthrite septique chez les bovins est une affection le plus souvent d’origine bactérienne qui est une cause de boiterie fréquente associée à des pertes économiques importantes. Le traitement, qui doit être initié le plus rapidement possible, s’appuie sur l’utilisation combinée d’anti-inflammatoires non stéroïdiens, d’un ou de plusieurs lavages articulaires ainsi que d’antibiotiques administrés de façon systémique pour un minimum de 3 semaines. Cette durée d’administration constitue une difficulté pour les élevages dits biologiques pour lesquels un cahier des charges strict limite un recours prolongé aux antibiotiques. Ainsi le traitement efficace de diverses conditions infectieuses et celui de l’arthrite septique en particulier dans ces élevages peut être compromis. L’objectif de ce travail est de s’appuyer sur les propriétés antimicrobiennes des solutions de saline hypertonique (SSH) pour limiter l’utilisation des antibiotiques dans les cas d’arthrite septique chez les veaux en intégrant ces solutions pour le lavage des articulations infectées. Notre première étude a consisté à déterminer la sécurité d’emploi de deux concentrations de SSH (une commerciale à 7.2% et une maison à 15%) dans des articulations supposées saines chez le veau. Une synovite sévère associée à des signes cliniques caractéristiques d’atteintes articulaires a été observé lors de l’utilisation de SSH 15%. Son utilisation clinique comme solution de lavage articulaire est par conséquent déconseillée. Concernant la SSH 7.2%, malgré une synovite d’intensité variable, nous n’avons pas noté des signes cliniques caractéristiques d’atteintes articulaires. Son utilisation dans un contexte expérimental d’infection articulaire nous a paru réaliste. Notre seconde étude a permis d’évaluer les effets du lavage articulaire avec de la SSH 7.2% dans un modèle expérimental d’infection à Escherichia coli. Trois groupes de traitement ont été constitués. Dans le premier groupe (traitement standard), un lavage était effectué avec du lactate de Ringer (LRS) et les veaux recevaient une administration biquotidienne de ceftiofur par voie intraveineuse pour 21 jours. Dans le deuxième groupe (LRS), un lavage était effectué avec du LRS et aucun antibiotique n’était administré. Enfin dans le troisième groupe (SSH), un lavage était effectué avec de la SSH 7.2% sans qu’aucun antibiotique ne soit administré. Tous les veaux ont reçu du kétoprofen quotidiennement pendant 3 jours. L’inoculation s’est fait au jour 1 et les traitements ont débuté au jour 2. L’efficacité des traitements a été établie sur des critères cliniques, bactériologiques et cytologiques. Dans le modèle que nous avons utilisé, les trois groupes de traitements ont conduits à une guérison clinique et bactériologique satisfaisante (absence de boiterie, de douleur et de croissance bactérienne dans le liquide articulaire en fin d’étude). La guérison cytologique n’a quant à elle pas été jugée satisfaisante avec des moyennes de comptage et de pourcentage en neutrophiles tout groupe confondu bien supérieures aux valeurs normales (11.39x109/l de neutrophiles représentant 74.73% des leucocytes en fin d’étude). Le traitement avec la SSH 7.2% s’est révélé être significativement plus traumatique et pas plus efficace dans l’élimination de l’infection comparativement au traitement LRS. D’autre part, le lavage articulaire au LRS s’est révélé être aussi efficace et sécuritaire que le traitement standard de l’arthrite septique qui incluait 21 jours de ceftiofur administré par voie intraveineuse. Ainsi, bien que le lavage avec de la SSH 7.2% n’est pas démontré de résultats satisfaisants qui permettrait de limiter le recours aux antibiotiques dans les filières biologiques, l’association d’un lavage au LRS avec le ketoprofen s’est révélée être une alternative possible. De nouvelles études sont requises pour confirmer ses résultats et pour déterminer le rôle respectif du lavage articulaire et du ketoprofen dans la guérison lors d’arthrite septique.
Resumo:
Les dirigeants-propriétaires des petites et moyennes entreprises (PME) sont de plus en plus intéressés par la gestion des ressources humaines (GRH); certains y voient un avantage concurrentiel face à la pénurie de main-d’œuvre actuelle. Considérant que la compatibilité entre les caractéristiques des travailleurs et celles de l’organisation peut générer des résultats positifs (Kristof-Brown et Guay, 2011), notre étude s’intéresse aux pratiques de GRH associées aux valeurs au travail de la génération Y ainsi que leur effet sur la capacité des PME à attirer et retenir cette cohorte. Cette étude qualitative s’est réalisée grâce à des données primaires colligées à la suite d’entrevues avec des dirigeants de quatre PME du secteur de la construction et seize employés appartenant à la génération Y œuvrant au sein de ces entreprises. Par nos résultats, nous avons relevé que la qualité des relations, autant avec les collègues que les superviseurs, demeure généralement la principale source d’attraction et de rétention des Y dans les PME. Nos résultats soutiennent aussi que leur attraction et rétention peut être très fortement favorisée grâce à des pratiques de communication bidirectionnelle et illimitée, une communication stratégique et une liberté dans la gestion du temps et des méthodes de travail. La conciliation travail et vie personnelle, les défis variés, les possibilités d’avancement, la gestion des ressources humaines socialement responsable, la reconnaissance des compétences ainsi que la gestion participative sont aussi des pratiques pouvant être fortement liées à l’attraction et la rétention de cette génération. Nos résultats montrent aussi que l’attraction et la rétention des Y dans les PME sont modérément favorisées par le travail d’équipe, les conditions de travail équitables et objectives et la rémunération globale concurrentielle. À l’inverse, la présence de technologies de l’information et des communications et la formation continue sont des sources plus faibles d’attraction et de rétention en comparaison aux autres pratiques abordées dans cette étude. En somme, cette étude contribue à la littérature sur la GRH dans les PME, puisque les spécificités relatives à ces entreprises ont été peu considérées jusqu’à aujourd’hui. Elle permet aussi la recommandation de pratiques utiles aux dirigeants-propriétaires et professionnels en ressources humaines œuvrant avec le défi d’attraction et de rétention de la génération Y au sein de leur entreprise.
Resumo:
Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.
Resumo:
L’interleukine 6 (IL-6) est une cytokine qui joue un rôle essentiel dans l’inflammation. Son récepteur (IL-6R) est composé de la chaîne non signalétique IL-6Rα et de la chaîne transductrice du signal gp130, commune aux cytokines de la famille IL-6. La liaison de l’IL-6 à son récepteur permet l’activation de plusieurs voies de signalisation, notamment des voies Jak/STAT1 et préférentiellement Jak/STAT3. De façon complémentaire, nous avons démontré que l’IL-6 est capable d’activer la voie Jak/STAT5 dans les lymphocytes T CD4. L’activation de cette voie de signalisation pourrait être impliquée dans le rétrocontrôle des effets pro-inflammatoires de l’IL-6 sur les cellules T CD4. Le facteur neurotrophique ciliaire (CNTF) et la « cardiotrophin-like cytokine/cytokine-like factor 1 » (CLC/CLF) sont deux cytokines de la famille de l’IL-6 qui signalent à travers un récepteur commun, le récepteur au CNTF (CNTFR), composé du CNTFRα, « leukaemia inhibitory factor receptor β » (LIFRβ) et gp130. Toutes deux exercent des actions au niveau du système immunitaire, or la chaîne CNTFRα de leur récepteur n’y est pas exprimée. Il a été montré que le CNTFR humain peut également activer un récepteur formé des sous-unités IL-6Rα, LIFRβ et gp130. Nous avons comparé les effets du CNTF et du CLC/CLF de souris sur des transfectants exprimant LIFRβ et gp130 et les chaines α connues de la famille IL-6 (IL-6Rα, IL-11Rβ et CNTFRα). Nos résultats indiquent que le CNTF de souris, comme le CNTF humain est capable d’activer un récepteur formé de l’IL-6Rα, LIFRβ et gp130. Toutefois cette propriété n’est pas partagée par CLC/CLF et le récepteur impliqué dans les effets de cette cytokine sur le système immunitaire reste donc à identifier. L’IL-27 appartient à la famille de l’IL-6 composée d’une sous-unité cytokinique, p28, associée à un récepteur soluble « l’Epstein-Barr virus-induced gene 3» (EBI3). La sous-unité p28 peut s’associer avec le récepteur soluble CLF pour former une cytokine capable d’activer les lymphocytes T. Dans le but de caractériser cette cytokine, nous avons montré que p28/CLF agit aussi sur les lymphocytes B et permet leur différenciation en plasmocytes. Le partage de l’IL-6R par l’IL-6 et p28/CLF semble être à l’origine de la similarité des effets de ces deux cytokines. De plus, nous avons observé des effets semblables à ceux de l’IL-6 suite à l’association de la sous-unité p28 seule avec la chaîne IL-6Rα. En effet, afin de mieux caractériser la cytokine p28/CLF, nous avons étudié les effets dus au recrutement de la chaîne IL-6Rα par la sous-unité p28. Les cytokines de la famille de l’IL-6 sont composées de quatre hélices α disposées de façon anti-parallèle deux à deux. La sous-unité p28 possède, au niveau d’une boucle reliant deux hélices α, un motif de plusieurs acides glutamiques consécutifs (motif polyE) qui n’est retrouvé dans aucune autre cytokine de cette famille. Nous avons démontré que ce motif est impliqué dans la liaison de cette sous-unité avec l’hydroxyapatite et l’os. Cette caractéristique de p28 pourrait permettre un ciblage de l’IL-27 (p28/EBI3) et de p28/CLF préférentiellement vers la niche endostéale des cellules souches et des cellules immunitaires.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.
Resumo:
De nos jours, il ne suffit pas de décoder pour être considéré comme alphabétisé, il faut aussi être capable de comprendre différents types de textes et d'utiliser avec efficience les informations qu'ils présentent (MELS, 2006). Le redoublement et le retard scolaire au primaire étant le plus souvent attribuables aux difficultés en lecture et en écriture et ces faiblesses se répercutant sur la réussite des élèves dans toutes les matières (Stetson et Williams, 1992), l'importance de présenter aux élèves des situations d'apprentissage complexes qui les soutiendront dans leur apprentissage par la lecture est sans équivoque. Surtout que Horton et Lovitt (1994) mentionnent que les échecs scolaires seraient étroitement liés aux difficultés que ces élèves éprouvent lorsqu'ils apprennent en lisant. Cette étude a été réalisée à partir des données collectées dans la recherche menée en 2003-2004 par Chouinard, Bowen, Cartier, Desbiens, Laurier, Plante (2005) intitulée: «L'effet de différentes approches évaluatives sur l'engagement et la persévérance scolaire dans le contexte du passage du primaire au secondaire» (Chouinard et coll., 2005). L’objectif de la présente étude était d’explorer la relation entre l’évaluation à l’aide d’examens d'enseignants de la fin du primaire et l’apprentissage par la lecture d'élèves en difficulté d'apprentissage. Pour ce faire, deux sous-objectifs ont été retenus : (1) Comparer la relation entre les deux types d’élèves (élèves ordinaires et élèves en difficulté d’apprentissage) et le processus d’apprentissage par la lecture et (2) Comparer la relation entre les niveaux d’identification d’évaluation à l’aide d’examens des enseignants et le processus d’apprentissage par la lecture. Les trois principaux concepts de la question de recherche sont la difficulté d'apprentissage, l'apprentissage par la lecture et les pratiques évaluatives, dont l’évaluation à l’aide d’examens. Une analyse des caractéristiques des 22 recherches répertoriées a permis constater que très peu de recherche traitent de la relation entre les pratiques évaluatives et le processus d'apprentissage des élèves du primaire et encore moins impliquent des élèves en difficulté d'apprentissage. ii Afin de répondre à l'objectif de la présente étude, une recherche de type exploratoire dans une approche quantitative a été retenue. Des analyses descriptives (moyennes et écart-type), suivie par une analyse multivariée de la variance (MANOVA) à deux niveaux (2x2) ont été effectuées. Ensuite, des analyses univariées ont été conduites sur les variables qui présentaient des relations significatives afin de mieux cibler ces relations. Cent six enseignants et leurs 1864 élèves ont accepté de répondre à deux questionnaires auto-déclarés : Le questionnaire sur les pratiques évaluatives (Chouinard et coll., 2005) a été utilisé auprès des enseignants. Le questionnaire sur l'apprentissage par la lecture: Lire pour apprendre de Cartier et Butler (version 2004) a été utilisé auprès des élèves. Les résultats en lien avec les objectifs de cette étude indiquent un effet d'interaction significatif entre l’identification des enseignants à l’évaluation à l’aide d’examens (forte ou faible) et les types d'élèves (élèves en difficulté d’apprentissage et élèves ordinaires). Les élèves en difficulté d’apprentissage interprètent davantage les exigences de l’activité que les élèves ordinaires lorsqu’ils sont dans ce contexte. On remarque aussi que les élèves en difficulté d’apprentissage rapportent recourir davantage aux stratégies d’encodage et de rappel que les élèves ordinaires et ce, peu importe l’identification des enseignants à l’évaluation à l’aide d’examens. Les résultats en lien avec le premier sous-objectif ont montré une relation significative entre les types d’élèves (élèves en difficulté d’apprentissage et élèves ordinaires) et le processus d’apprentissage par la lecture. Cette relation significative se situe sur l’engagement périphérique et les stratégies cognitives. Aussi, les résultats en lien avec le deuxième sous-objectif ont révélé une relation significative entre l’évaluation à l’aide d’examens et le processus d’apprentissage par la lecture.
Resumo:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Resumo:
Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.
Resumo:
La variabilité des concentrations plasmatiques mesurées lors d’une anesthésie générale avec le propofol est directement reliée à une variabilité inter-animale, sa pharmacocinétique. L’objectif de cette étude est de caractériser la pharmacocinétique du propofol et de rechercher les effets des caractéristiques démographiques sur la variation des paramètres pharmacocinétiques. Les chiens (n=44) ayant participé à cette étude ont été anesthésiés au propofol à 6 mois (n=29), 12 (n=21) mois et/ou 24 mois (n=35). L’anesthésie a été induite avec du propofol (en moyenne 5 mg) et maintenue avec une perfusion (débit initial de 360 mg/kg/h). Des ajustements de perfusion ainsi que des bolus supplémentaires seront administrés si le comportement de l’animal l’exige. Une randomisation stratifiée des sexes aux deux groupes de prémédication, le premier recevant de l’acépropmazine (0,05 mg/kg en I.M.) et le deuxième une association d’acépromazine (0.05 mg/kg IM) et de butorphanol (0.1mg/kg IM). Des échantillons sanguins ont été prélevés de t=0 jusqu'à t=300 minutes ou plus. Au total 1339 prélèvements ont été analysés. Un modèle mamillaire à 3 compartiments décrit de manière adéquate nos données. Les valeurs moyennes de CLt V1, CL2, V2, CL3 and V3 sont respectivement égales à 0.65 L/min (SD=0.24), 2.6 L (SD=2.04), 2.24 L/min (1.43), 9.6 L (SD=7.49), 0.42 L/min (SD=0.199), 46.4 L (SD=40.6). Les paramètres pharmacocinétiques obtenus ont révélé une grande variabilité interindividuelle, en particulier CL2, V1, V2 et V3 .Le poids est une co-variable significative pour CLt et V2. L’âge est une co-variable significative pour CL3 et V3. L’ajout de la parenté pour V2 et V3 au modèle a amélioré la qualité de l’ajustement du modèle. Les paramètres V1 et CL2 sont indépendants des facteurs physiologiques étudiés.
Resumo:
Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.
Resumo:
La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.