1000 resultados para Notation musicale. aquitaine sur portée avec une ligne rouge
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.
Resumo:
Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.
Resumo:
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.
Resumo:
HYAL-1 (hyaluronidase-1) appartient à la famille des hyaluronidases connues pour leur rôle dans la dégradation de l’acide hyaluronique. L’expression de HYAL-1 est élevée dans de nombreux type de cancers, notamment dans le cancer de la prostate, de la vessie, des reins et du sein où il est impliqué dans la croissance tumorale et les métastases. Récemment notre laboratoire a aussi démontré une expression élevée de HYAL-1 dans le cancer épithélial de l’ovaire (CEO) de type mucineux et à cellules claires, expression qui est inversement corrélée à celle du récepteur de l’oestrogène alpha (REα). Cependant, malgré le fait que le rôle de HYAL-1 dans le cancer soit bien établit, le mécanisme de sa régulation reste encore inconnu. Le REα est un facteur de transcription qui suite à sa liaison avec son ligand va réguler l’expression de plusieurs gènes. Le REα ainsi stimulé par l’hormone va activer la transcription de ces gènes cibles mais il est connu maintenant qu’une grande partie des gènes régulés par le REα sont en réalité réprimés par ce récepteur. Dans ce travail nous proposons d’étudier le mécanisme de la régulation du gène HYAL-1 par le REα dans le CEO à cellules claires et dans le cancer du sein. L’expression ectopique du REα dans la lignée TOV21G (RE-) de même que le traitement de la lignée MCF-7 (RE+) avec de l’oestrogène a induit une diminution du niveau d’expression de l’ARN m de HYAL-1. Ces résultats nous ont permis de confirmer que HYAL-1 est un gène cible du REα. Il est aussi connu que le REα peut exercer son action par différents mécanismes d’action, entre autres en interagissant avec une séquence d’ADN appelée élément de réponse à l’oestrogène (ERE), retrouvé sur le promoteur des gènes cibles ou bien indirectement par des interactions protéine-protéine en se liant à d’autres facteur de transcription tels que Sp1. Après avoir identifiés de telles séquences sur le promoteur proximal de HYAL-1, (1 ERE proximal à -900 pb, 3 distaux à -32350 pb, 48430, -50130 pb du site d’initiation de la transcription) en plus des 2 Sp1 connus (-60 et – 1020pb), nous avons démontrés par immunoprécipitation de la chromatine que le REα est recruté sur le promoteur de HYAL-1 au niveau de l’ERE proximal -900 pb et du distal -32350 pb de même que sur le site Sp1 -1020 pb. De plus, l’activité biologique de l’ERE -900 pb et du ii Sp1-1020pb à été confirmée par des essais de gènes rapporteurs à la luciférase. Avec son rôle connu dans la tumorigenèse, l’identification de HYAL-1 comme gène cible du REα pourrait être une avenue intéressante pour le traitement des cancers hormono-indépendants.
Resumo:
Ce mémoire étudie les conditions d’émergence du mouvement Tea Party. Nous cherchons à savoir si la mobilisation a été facilitée par la présence d’opportunités politiques, telles que proposées dans la littérature sur les mouvements sociaux. À l’aide d’une analyse de contenu, il a été possible d’observer trois opportunités dans une période comprise entre février 2009 et octobre 2010. Dans cette même période, il a été aussi possible d’identifier la fréquence et la nature de la mobilisation, qui prend la forme de protestations et de réunions informelles. Nous en arrivons à la conclusion que ces opportunités étaient présentes lors de l’émergence du mouvement social. En effet, la présence d’enjeux spécifiques, d’une division partisane ainsi que d’alliés coïncide avec une augmentation substantielle de la mobilisation. Les élections de mi-mandat semblent avoir transformé un mouvement axé sur les protestations vers une action politique conventionnelle.
Resumo:
Le phénomène du décrochage scolaire est encore très présent dans notre société, particulièrement chez les garçons. Notre mémoire s’intéresse à la question et vise à mieux comprendre la dynamique motivationnelle d’un échantillon (N=11) d’élèves masculins considéré comme étant « à risque » de décrochage au 3e cycle d’une école primaire de Montréal. De plus, notre expérimentation vise spécifiquement à décrire l’influence de l’utilisation d’une activité pédagogique dite « motivante » : le jeu éducatif numérique « Math en Jeu » sur la dynamique motivationnelle à apprendre en mathématiques. Il s’agit d’une étude de cas avec une approche mixte de collecte de données. Nos résultats révèlent quatre profils de dynamique motivationnelle chez les élèves de notre échantillon : 1) les élèves en difficulté en mathématiques, 2) les élèves démotivés et 3) les élèves démotivés et en difficulté en mathématiques, puis, 4) des cas plus complexes. Notre analyse montre que « Math en Jeu » suscite un grand intérêt chez tous les élèves de notre échantillon. L’influence du jeu sur la dynamique motivationnelle semble toutefois mieux convenir aux élèves avec des dynamiques motivationnelles de type « démotivé » ou « démotivé et en difficulté en mathématiques » et dans une certaine mesure, certains élèves catégorisés comme étant des « cas complexes ». Nos résultats indiquent que le jeu pourrait notamment avoir une certaine influence sur le sentiment de compétence à réussir de l’élève. Toutefois, pour être en mesure de mieux décrire et analyser ces influences, il serait préférable de mener des recherches sur une plus longue durée, dans un contexte naturel de classe et sur un échantillon d’élèves plus grand.
Resumo:
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition
Resumo:
En 1985, la Charte des droits et libertés de la personne (L.R.Q., ch. C-12) du Québec était amendée afin d’inclure une nouvelle section consacrée aux programmes d’accès à l’égalité (PAE). Cet ajout résulte du constat d’une situation d’inégalité sur le marché du travail québécois pour les membres de certains groupes, en raison de motifs illicites de discrimination. Concrètement, on observe une certaine ségrégation professionnelle, de faibles revenus moyens et des conditions précaires d’emploi. L’objectif des PAE est de redresser la situation de groupes victimes de discrimination; pour réaliser cet objectif, ils autorisent la mise en œuvre de mesures spécifiques à l’intention de ces derniers. Plusieurs types de PAE ont été mis en place par les gouvernements québécois successifs afin d’élargir leur champ d’application. Parmi ces différents types de PAE, cette étude se concentre sur ceux associés à l’obligation contractuelle qui obligent toutes les organisations qui emploient 100 employés ou plus et qui obtiennent un contrat ou une subvention du gouvernement du Québec d’une valeur de 100 000 $ et plus, à développer et à mettre en œuvre un PAE. Il s’agit de la principale forme de PAE touchant les organisations privées. Quatre groupes cibles sont identifiés dans ces PAE : les femmes, les membres des minorités visibles, les Autochtones et les personnes handicapées. Parmi ceux-ci, compte tenu de la croissance importante de ce groupe et des situations souvent aiguës de discrimination qu’ils vivent sur le marché du travail québécois, l’attention sera portée sur le groupe des minorités visibles. Très peu de recherches ont été réalisées sur ces PAE en raison d’une obligation de confidentialité de résultats complète. Les rares études effectuées jusqu’à présent ont constaté des progrès très inégaux entre les employeurs : alors qu’un petit nombre d’organisations semblaient progresser rapidement dans l’atteinte de leurs objectifs, la vaste majorité stagnait ou encore progressait très lentement. Ce constat menait à s’interroger sur les facteurs, autres que le cadre juridique, qui peuvent expliquer le niveau de conformité aux objectifs. En se basant sur une analyse de contenu d’entrevues semi-dirigées menées auprès de gestionnaires responsables des PAE dans 31 organisations privées de la région de Montréal, plusieurs facteurs des environnements externes et internes des organisations, ont été identifiés pour expliquer les niveaux de conformité aux objectifs qualitatifs. Parmi les facteurs positivement reliés, on remarque l’engagement des membres de la haute direction en faveur des PAE, la mise en place d’un système d’imputabilité et la perception de certains bénéfices liés à la diversification des effectifs. Au contraire, la confusion entre l’égalité et l’équité, le fait de privilégier les mouvements internes de personnel et les biais des gestionnaires de première ligne semblent être négativement reliés à l’atteinte des objectifs qualitatifs. Ces résultats démontrent l’importance que prennent les facteurs liés à l’environnement interne, surtout lorsque le cadre juridique est peu contraignant et que les gestionnaires croient que les probabilités de sanctions sont faibles. En se basant sur ces résultats, une série de recommandations est proposée, afin d’améliorer les PAE, mais aussi afin d’améliorer la compréhension des gestionnaires des ressources humaines sur ce qu’est la discrimination en emploi et les moyens les plus appropriés pour la combattre.
Resumo:
La phosphorylation est une modification post-traductionnelle modulant l’activité, la conformation ou la localisation d’une protéine et régulant divers processus. Les kinases et phosphatases sont responsables de la dynamique de phosphorylation et agissent de manière coordonnée. L’activation anormale ou la dérégulation de kinases peuvent conduire au développement de cancers ou de désordres métaboliques. Les récepteurs tyrosine kinase (RTKs) sont souvent impliqués dans des maladies et la compréhension des mécanismes régissant leur régulation permet de déterminer les effets anticipés sur leurs substrats. Dans ce contexte, le but de cette thèse est d’identifier les évènements de phosphorylation intervenant dans la voie de l’insuline chez la drosophile impliquant un RTK : le récepteur de l’insuline (InR). La cascade de phosphorylation déclenchée suite à l’activation du récepteur est conservée chez le mammifère. Afin d’étudier le phosphoprotéome de cellules S2 de drosophile, nous avons utilisé une étape d’enrichissement de phosphopeptides sur dioxyde de titane suivie de leur séparation par chromatographie liquide (LC) et mobilité ionique (FAIMS). Les phosphopeptides sont analysés par spectrométrie de masse en tandem à haute résolution. Nous avons d’abord démontré les bénéfices de l’utilisation du FAIMS comparativement à une étude conventionnelle en rapportant une augmentation de 50 % dans le nombre de phosphopeptides identifiés avec FAIMS. Cette technique permet de séparer des phosphoisomères difficilement distinguables par LC et l’acquisition de spectres MS/MS distincts où la localisation précise du phosphate est déterminée. Nous avons appliqué cette approche pour l’étude des phosphoprotéomes de cellules S2 contrôles ou traitées à l’insuline et avons identifié 32 phosphopeptides (sur 2 660 quantifiés) pour lesquels la phosphorylation est modulée. Étonnamment, 50 % des cibles régulées possèdent un site consensus pour la kinase CK2. Une stratégie d’inhibition par RNAi a été implémentée afin d’investiguer le rôle de CK2 dans la voie de l’insuline. Nous avons identifié 6 phosphoprotéines (CG30085, su(var)205, scny, protein CDV3 homolog, D1 et mu2) positivement régulées suite à l’insuline et négativement modulées après le traitement par RNAi CK2. Par essai kinase in vitro, nous avons identifié 29 cibles directes de CK2 dont 15 corrélaient avec les résultats obtenus par RNAi. Nous avons démontré que la phosphorylation de su(var)205 (S15) était modulée par l’insuline en plus d’être une cible directe de CK2 suite à l’expérience RNAi et à l’essai kinase. L’analyse des données phosphoprotéomiques a mis en évidence des phosphopeptides isomériques dont certains étaient séparables par FAIMS. Nous avons déterminé leur fréquence lors d’études à grande échelle grâce à deux algorithmes. Le script basé sur les différences de temps de rétention entre isomères a identifié 64 phosphoisomères séparés par LC chez la souris et le rat (moins de 1 % des peptides identifiés). Chez la drosophile, 117 ont été répertoriés en combinaison avec une approche ciblée impliquant des listes d’inclusion. Le second algorithme basé sur la présence d’ions caractéristiques suite à la fragmentation de formes qui co-éluent a rapporté 23 paires isomériques. L’importance de pouvoir distinguer des phosphoisomères est capitale dans le but d’associer une fonction biologique à un site de phosphorylation précis qui doit être identifié avec confiance.
Resumo:
L’angiogenèse, caractérisée par la formation de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants, est un processus accompagné par l’inflammation, impliquant la synthèse et la relâche de différents facteurs de croissance par les cellules inflammatoires. Parmi ces facteurs, seuls le vascular endothelial growth factor (VEGF) et les angiopoïétines (Ang1 et Ang2) peuvent participer à la régulation de l’inflammation et de l’angiogenèse. La famille des angiopoïétines comporte quatre membres, desquels l’Ang1 et l’Ang2 ont été les plus étudiés. Ces deux médiateurs inflammatoires sont capables d’activer le récepteur Tie2, dont l’expression a initialement été rapportée sur les cellules endothéliales (CE). Notre laboratoire a été le premier à démontrer l’expression de Tie2 à la surface des neutrophiles, ainsi que sa capacité, suite à son activation par l’Ang1 ou l’Ang2, à induire la synthèse du facteur d’activation plaquettaire (PAF), l’activation de la β2-intégrine, la migration des neutrophiles ainsi que leur adhésion aux CE. D’autres études ont montré que les CE emmagasinent et relâchent le VEGF et l’Ang2, tandis que les péricytes et les cellules musculaires lisses contiennent l’Ang1. Puisque les neutrophiles relâchent le VEGF et que les deux angiopoïétines ont la capacité d’activer Tie2 sur ces derniers, nous avons voulu déterminer si les neutrophiles contiennent l’Ang1 et/ou l’Ang2 et si elles peuvent être relâchées suite à une stimulation avec des agonistes proinflammatoires. Nous avons découvert que l’Ang1, mais pas l’Ang2 est présente dans les neutrophiles, et qu’elle est relâchée suite à une stimulation au phorbol myristate acetate (PMA). De plus, nous avons démontré que l’Ang1 est localisée au niveau du cytosol et que sa relâche est calcium-indépendante, contrairement au VEGF, qui est localisé dans les granules β et sa relâche est calcium-dépendante. Cette étude démontre pour la première fois l’expression et la localisation de l’Ang1 dans les neutrophiles. Une récente étude effectuée dans notre laboratoire a démontré que les angiopoïétines induisent la migration des neutrophiles en activant le récepteur Tie2 et la voie de la PI3K. De plus, les angiopoïétines ont potentialisé la migration induite par l’IL-8. Ainsi, nous avons émis l’hypothèse que l’Ang1 et/ou l’Ang2 seraient capables d’induire la relâche et/ou la synthèse de l’IL-8 par les neutrophiles. Nous avons démontré pour la première fois, la capacité de l’Ang1 à induire l’expression de l’ARNm, ainsi que la synthèse et la relâche d’IL-8 par les neutrophiles. Cependant, un traitement avec l’Ang2 seule ou en combinaison avec l’Ang1 n’a eu aucun effet sur les activités mentionnées ci-dessus. Nous avons aussi observé que la synthèse et la relâche d’IL-8 induite par l’Ang1 requièrent la transcription de l’ADN en ARNm, suivie par la stabilisation de ce dernier, qui ultimement induit la traduction de l’ARNm de l’IL-8 en sa protéine. Finalement, nous avons démontré que la stimulation des neutrophiles avec l’Ang1 induit ces activités en activant la voie de la p42/44 MAPK, tout en étant indépendantes de la p38 MAPK et la PI3K/Akt. Ces résultats sont en lien direct avec une récente étude dans laquelle nous avons observé que l’Ang1, mais pas l’Ang2 est capable d’augmenter la survie des neutrophiles via la relâche d’IL-8.
Resumo:
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène.
Resumo:
La présente recherche porte sur le dieu de la guerre des Grecs anciens, Arès. La communauté historienne s’entend pour affirmer qu’Arès était un dieu de second ordre et un dieu mal aimé par les Grecs de l’époque. Les investigations des historiens du XXe siècle sont axées sur les documents littéraires et elles ne font que reformuler, dans la majorité des cas, le contenu de ceux-ci. Alors, afin de bénéficier d’un regard nouveau sur le dieu, on a étudié Arès au travers les documents épigraphiques pour corroborer ou non nos présentes connaissances. Le dieu de la guerre tel que présenté dans les écrits littéraires est-il le même que celui qui est véhiculé dans l’épigraphie de l’époque? La réponse à cette question nous permettra d’établir si nos connaissances actuelles sont valables et elle les complètera. La recherche épigraphique s’effectue en cinq étapes. D’abord, on voit si le côté militaire d’Arès était également prédominant au sein des inscriptions. Ensuite, on porte une attention particulière aux documents épigraphiques pouvant démontrer un Arès mal aimé. Le tout se poursuit avec la mise en relation du dieu et des anciens serments. Enfin, on termine avec une approche plus géographique qui nous permet de définir deux foyers importants du dieu de la guerre, soit la cité de Métropolis et l’île de Crète. À la suite de ce parcours on a déterminé que l’appréciation et l’importance que les Grecs accordaient à ce dieu n’était pas unanime. Le ressentiment des Grecs variaient selon les individus et les lieux. On a aussi été capable d’établir des faits au sujet d’Arès : son domaine d’action prédominant restait le militaire dans les inscriptions; il était un réel dieu, présent, respecté et loué; il possédait d’importants lieux de culte à Lato et Métropolis. Compte tenu d’une redéfinition notable du profil d’Arès, une révision des sources littéraires propres à Arès s’impose ainsi qu’une évaluation complète de toutes les autres sources (iconographique, archéologique, numismatique, épigraphique, etc.).
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.