503 resultados para Raison
Resumo:
Le jeu a toujours été perçu comme un vice, responsable de nombreux troubles sociaux. Par conséquent, les gouvernements ont adopté divers cadres juridiques pour contrôler et gérer ses conséquences négatives. Malgré qu'il soit omniprésent, le jeu en ligne est illégal au Canada, aux États Unis et dans plusieurs autres pays. La règlementation du jeu en ligne et la gestion de ses troubles sociaux présente un plus grand défi pour les gouvernements, particulièrement en raison de sa nature technologique et extraterritoriale. Ce mémoire identifiera les risques et conséquences liés au jeu, en particulier les problèmes de jeu, ainsi que les cadres juridiques adoptés pour les règlementer et minimiser. Nous examinerons le statut juridique du jeu en ligne dans différentes juridictions, dont le Canada, les États Unis, le Royaume-Uni et ailleurs dans l'Union européenne. Ces cadres juridiques comprennent l'interdiction du jeu en ligne aux États Unis, la légalisation, l’octroi de licences et taxation du jeu en ligne au Royaume Uni et les cadres juridiques employés au Canada et ailleurs, offrant du jeu en ligne exclusivement par l’entremise de monopoles d'état pour contrôler sa disponibilité et minimiser ses conséquences néfastes. Nous tirerons des conclusions quant à l'efficacité relative des différents cadres juridiques adoptées pour règlementer le jeu en ligne.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
De grandes enquêtes en milieu scolaire, au Québec comme ailleurs, ont documenté depuis les années 2000 la portée des violences homophobes, particulièrement à l’école secondaire, ainsi que leurs impacts négatifs sur les élèves qui en sont victimes, qu’ils s’identifient ou non comme lesbiennes, gais, bisexuel(le)s ou en questionnement (LGBQ). La diffusion des résultats de ces enquêtes, ainsi que les constats similaires d’acteurs sur le terrain, ont fait accroitre les appels à la vigilance des écoles quant aux discriminations homophobes pouvant prendre forme en leur enceinte. Plusieurs des responsabilités résultant de cette mobilisation ont échoué par défaut aux enseignants, notamment en raison de leur proximité avec leurs élèves. Cependant, malgré la panoplie de publications et de formations visant explicitement à les outiller à ce sujet, les enseignants rapportent de manière consistante manquer de formation, d’habiletés, de soutien et d’aise à l’idée d’intervenir contre l’homophobie ou de parler de diversité sexuelle en classe. Cette thèse de doctorat vise à comprendre les pratiques d’intervention et d’enseignement que rapportent avoir les enseignants de l’école secondaire québécoise, toutes orientations sexuelles confondues, par rapport à la diversité sexuelle et à l’homophobie. Dans une perspective interdisciplinaire, nous avons interrogé la sociologie de l’éducation, les études de genre (gender studies) et les études gaies et lesbiennes, ainsi qu’emprunté aux littératures sur les pratiques enseignantes et sur l’intervention sociale. Les données colligées consistent en des entrevues semi-structurées menées auprès de 22 enseignants du secondaire, validées auprès de 243 enseignants, par le biais d’un questionnaire en ligne. Étayés dans trois articles scientifiques, les résultats de notre recherche permettent de mieux saisir la nature des pratiques enseignantes liées à la diversité sexuelle, mais également les mécanismes par lesquels elles viennent ou non à être adoptées par les enseignants. Les témoignages des enseignants ont permis d’identifier que les enseignants sont globalement au fait des attentes dont ils font l’objet en termes d’intervention contre l’homophobie. Ceci dit, en ce qu’ils sont guidés dans leurs interventions par le concept limité d’homophobie, ils ne paraissent pas toujours à même de saisir les mécanismes parfois subtils par lesquels opèrent les discriminations sur la base de l’orientation sexuelle, mais aussi des expressions de genre atypiques. De même, si la plupart disent condamner vertement l’homophobie dont ils sont témoins, les enseignants peuvent néanmoins adopter malgré eux des pratiques contribuant à reconduire l’hétérosexisme et à alimenter les mêmes phénomènes d’infériorisation que ceux qu’ils cherchent à combattre. Sauf exception, les enseignants tendent à comprendre le genre et l’expression de genre davantage comme des déterminants de type essentialiste avec lesquels ils doivent composer que comme des normes scolaires et sociales sur lesquelles ils peuvent, comme enseignants, avoir une quelconque influence. Les stratégies de gestion identitaire des enseignants LGB influencent les pratiques qu’ils rapportent être en mesure d’adopter. Ceux qui optent pour la divulgation, totale ou partielle, de leur homosexualité ou bisexualité peuvent autant rapporter adopter des pratiques inclusives que choisir de se tenir à distance de telles pratiques, alors que ceux qui favorisent la dissimulation rapportent plutôt éviter autant que possible ces pratiques, de manière à se garder de faire face à des situations potentiellement délicates. Également, alors que les enseignants LGB étaient presque exclusivement vus jusqu’ici comme ceux chez qui et par qui se jouaient ces injonctions à la vie privée, les enseignants hétérosexuels estiment également être appelés à se positionner par rapport à leur orientation sexuelle lorsqu’ils mettent en œuvre de telles pratiques. Nos résultats révèlent un double standard dans l’évocation de la vie privée des enseignants. En effet, la divulgation d’une orientation hétérosexuelle, considérée comme normale, est vue comme conciliable avec la neutralité attendue des enseignants, alors qu’une révélation similaire par un enseignant LGB est comprise comme un geste politique qui n’a pas sa place dans une salle de classe, puisqu’elle se fait au prix du bris d’une présomption d’hétérosexualité. Nos résultats suggèrent qu’il existe de fortes prescriptions normatives relatives à la mise en genre et à la mise en orientation sexuelle à l’école. Les enseignants s’inscrivent malgré eux dans cet environnement hétéronormatif. Ils peuvent être amenés à y jouer un rôle important, que ce soit en contribuant à la reconduction de ces normes (par exemple, en taisant les informations relatives à la diversité sexuelle) ou en les contestant (par exemple, en expliquant que certains stéréotypes accolés à l’homosexualité relèvent d’aprioris non fondés). Les discours des enseignants suggèrent également qu’ils sont traversés par ces normes. Ils peuvent en effet choisir de se conformer aux attentes normatives dont ils font l’objet (par exemple, en affirmant leur hétérosexualité), ou encore d’y résister (par exemple, en divulguant leur homosexualité à leurs élèves, ou en évitant de conforter les attentes dont ils font l’objet) au risque d’être conséquemment pénalisés. Bien entendu, cette influence des normes de genre diffère d’un enseignant à l’autre, mais semble jouer autant sur les enseignants hétérosexuels que LGB. Les enseignants qui choisissent de contester, explicitement ou implicitement, certaines de ces normes dominantes rapportent chercher des appuis formels à leurs démarches. Dans ce contexte, une telle quête de légitimation (par exemple, la référence aux règlements contre l’homophobie, la mobilisation des similitudes entre l’homophobie et le racisme, ou encore le rapprochement de ces enseignements avec les apprentissages prescrits pour leur matière) est à comprendre comme un outillage à la contestation normative. La formation professionnelle des enseignants sur l’homophobie et sur la diversité sexuelle constitue un autre de ces outils. Alors que les enseignants québécois continuent d’être identifiés comme des acteurs clés dans la création et le maintien d’environnements scolaires non-discriminatoires et inclusifs aux réalités de la diversité sexuelle, il est impératif de les appuyer en multipliant les signes formels tangibles sur lesquelles leurs initiatives peuvent prendre appui (politiques explicites, curriculum scolaire inclusif de ces sujets, etc.). Nos résultats plaident en faveur d’une formation enseignante sur la diversité sexuelle, qui ferait partie du tronc commun de la formation initiale des maîtres. Chez les enseignants en exercice, il nous apparait préférable de miser sur une accessibilité accrue des formations et des outils disponibles. En réponse toutefois aux limites que pose à long terme une approche cumulative des formations spécifiques portant sur différents types d’oppressions (l’homophobie, le racisme, le sexisme, etc.), nous argumentons en faveur d’un modèle d’éducation anti-oppressive au sein duquel les élèves seraient invités à considérer, non seulement la multiplicité et le caractère situé des divers types d’oppressions, mais également les mécanismes d’attribution de privilège, de constitution de la normalité et de la marginalité, et de présentation de ces arbitraires culturels comme des ordres naturels.
Resumo:
Les enfants atteints d’un trouble du spectre de l’autisme (TSA) présentent souvent des difficultés à généraliser leurs apprentissages à des nouveaux stimuli, contextes et individus (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). Pour cette raison, il est important d’utiliser des techniques promouvant la généralisation au sein des programmes d’intervention leur étant destinés. Cette recherche visait à évaluer l’efficacité de deux des techniques les plus fréquemment utilisées dans les programmes d’intervention comportementale intensive (ICI), soit l’enseignement séquentiel et l’enseignement simultané, afin de déterminer si l’une d’elles était systématiquement plus efficace que l’autre pour promouvoir la généralisation des concepts chez les enfants ayant un TSA. Des devis expérimentaux à cas unique ont été utilisés pour évaluer les effets des deux techniques sur la généralisation de quatre enfants ayant un diagnostic de TSA et recevant des services d’ICI en clinique privée. Pour deux participants, la méthode enseignement simultané a démontré une plus grande efficacité quant à la généralisation des concepts enseignés. Pour les deux autres, les deux techniques se sont avérées aussi efficaces. Bien que préliminaires, les résultats suggèrent qu’il serait préférable d’appliquer la méthode enseignement simultané lors de l’enseignement de concepts chez les enfants ayant un TSA en contexte d’ICI.
Resumo:
Travail d'intégration présenté à Elaine Chapman dans le cadre du cours PHT-6113.
Resumo:
Né à Constantine en 1905 É.C., décédé à Alger en 1973 É.C., Malek Bennabi ce penseur algérien et réformateur musulman peu connu, s’est attaché durant sa vie, à étudier et analyser les problèmes liés à la civilisation du Monde arabo-musulman. Ingénieur sorti de l’Ecole Polytechnique de Paris, Malek Bennabi a jumelé deux cultures différentes : la culture islamique et la culture occidentale.C'est pour cette raison que ses analyses sont ornées d'expertise et d'expérience, d'innovation et d'émancipation. Sa réflexion est pleine d'animation, il a plus d'une vingtaine d'ouvrages, traitant des thèmes variés : la civilisation, le dialogue civilisationnel, la culture, l'idéologie, les problèmes de société, l’orientalisme, la démocratie, le système colonial ainsi que de sujets relatifs au phénomène coranique. À travers ses écrits, il s’attache à étudier et à analyser les raisons de la stagnation de la Société arabo-musulmane et les conditions d’une nouvelle renaissance. Malek Bennabi, s’attèle à tenter d’éveiller les consciences pour une renaissance de cette société. Ayant vécu l’expérience coloniale et post – coloniale dans son pays, Malek Bennabi demeurera tourmenté par les obstacles de développement. Pour lui l’accession à l’indépendance et la construction d’un État moderne n’auront pas suffi à arracher la société au sous-développement économique, social et culturel. En effectuant une relecture du patrimoine islamique, tout comme l’ont fait deux penseurs décédés récemment : Al Djâbiri et Mohamed Arkoun. Malek Bennabi cherchait à offrir une énergie sociale capable à arracher les sociétés arabo-musulmanes de leur sous-développement et décadence. C’est sous cet angle, que nous allons, dans ce mémoire, mener notre réflexion en l’articulant autour de la problématique centrale qui traverse la pensée de Malek Bennabi, à savoir celle du renouveau de la société islamique marquée par une grande diversité. Nous allons tenter de répondre à plusieurs questions, dont la principale est la suivante : est-ce que Malek Bennabi a présenté, à travers ses idées, de la nouveauté pour changer la réalité arabo-musulmane?
Resumo:
L’étude de cas qui compose ce mémoire de maîtrise cherche à expliquer sous l’optique sociologique la pérennité des relations conflictuelles qu’entretiennent le festival permanent Uzeste Musical et le village du même nom, peuplé de 450 habitants et dans lequel il se déroule depuis plus de 35 ans. Fondée sur une enquête de terrain mêlant approche ethnographique et entretiens semi-dirigés au sein de ce village du sud ouest de la France, l’analyse combine in vivo une description ethnographique du conflit à différents éléments théoriques susceptibles d’en rendre raison. Principalement, le recours à la théorie des champs et des sens pratiques de Bourdieu et à celle, pragmatique, de Boltanski et Thévenot, permet de saisir dans le discours des différents acteurs du conflit les raisons pour lesquelles un festival de jazz comme celui-ci se révèle être à bien trop d’égards étranger aux structures et à la culture d’un tel village pour s’y faire pleinement accepter. Il permet également de rendre compte de la manière par laquelle ces mêmes acteurs tendent à redéfinir un conflit – dont la longévité pourrait a priori sembler insoutenable – en des termes qui leur sont familiers, posture qui leur permet alors de relativiser une conflictualité qu’ils assimilent à l’histoire ordinaire de leur village et avec laquelle ils sont ainsi en mesure de composer.
Resumo:
Cotutelle de thèse réalisée en littérature comparée (option épistémologie) avec l'Université de Montréal sous la direction de Terry Cochran et en philosophie avec Paris X (Nanterre) sous la direction d'Alain Milon.
Resumo:
Ce mémoire s’inscrit dans une lignée de recherches ayant pour thème les gangs de rue. L’objectif de cette recherche est de préciser comment les jeunes contrevenants perçoivent l’univers des gangs de rue et ses composantes, à savoir le gang lui-même, un membre de gang, les activités de gang, qu’elles soient délinquantes ou autres, que veut dire être un ancien membre de gang et comment se dessine la vie après le gang. Pour se démarquer des autres recherches, réalisées le plus souvent à partir d’entrevues individuelles, nous avons réalisé des groupes de discussion impliquant 13 jeunes contrevenants hébergés dans les unités de réadaptation du Centre jeunesse de Montréal-Institut universitaire. Ces participants, appartenant ou non à un gang de rue, ont partagé leurs représentations et leurs perceptions de l’univers des gangs et de ses composantes. À la lumière de l’analyse du contenu des entrevues de groupe, une communauté d’idées s’en dégage. Les jeunes partagent des représentations et perceptions semblables quant aux gangs de rue et ses composantes. Les gangs de rue sont, selon eux, un groupe de jeunes qui commettent des délits, avec violence ou non, et qui s’identifient à leur gang par l’entremise d’un chiffre, d’une couleur, d’un quartier... Pour repérer un membre de gang de rue, il faut faire partie de ce milieu. De l’avis des répondants, ils sont, bien souvent, sur-identifiés par les instances policières et les autres intervenants en raison des critères utilisés. Bien que les activités criminelles fassent partie intégrante de leur mode de vie, il ne faut pas négliger les activités positives et agréables qui font partie de leur quotidien. Pour quitter cet univers, il suffit d’en informer son gang. Aucune démarche spécifique ne doit être faite et les menaces de représailles s’actualisent rarement. Toutefois, les membres de gangs ennemis et les policiers continuent souvent à identifier comme membre actif ces jeunes qui tentent de s’en sortir et de se refaire une vie, compromettant ainsi leur réinsertion sociale, qui ne se fait par ailleurs pas sans embûches et obstacles. Les jeunes ont mentionné avoir besoin de ressources qui peuvent les supporter et les épauler à travers ce processus de changement. D’où l’importance de mettre à jour nos connaissances et faire un portrait plus actuel sur le sujet avec la possibilité de les partager avec les différents intervenants, concernés par la problématique, pour qu’ils puissent en tenir compte dans leurs interventions auprès de cette clientèle, ceci notamment dans les centres de réadaptation où le besoin de s’exprimer librement sur le sujet et d’être écouté a été nommé haut et fort par les jeunes interviewés.
Resumo:
Ce mémoire propose une analyse du roman historique La Carthagénoise (Germán Espinosa, 1982). Ce roman porte sur l’échange des idées entre l’Amérique coloniale et l’Europe éclairée. L’invasion française au port caraïbe de Carthagène d’Indes en 1697 est l’événement historique qui déclenche sa trame. Cette œuvre littéraire effectue un parcours à travers deux espaces et périodes historiques – l’Amérique sous domination espagnole et l’Europe des Lumières – dans lesquels s’entrecroisent des personnages réels et fictionnels. L’analyse que propose le présent travail aborde en premier lieu les antécédents du roman historique en Amérique latine. Dans une deuxième partie, il se penche sur les stratégies narratives utilisées dans le roman d’Espinosa et sur l’impact éventuel de ces procédés sur la facette critique de l’œuvre. L’hypothèse centrale de ce travail est que la fiction historique contribue à une vision critique de l’histoire officielle et qu’elle propose une réflexion sur les causes de la stagnation épistémologique en Amérique latine ainsi que des processus historiques inachevés tels que la libération épistémologique et la consolidation des épistémologies émergentes suggérées par la théorie postcoloniale et la pensée décoloniale. Le roman montre également la naissance, la mise en œuvre et l’échec de ce projet de libération épistémologique mené par un personnage féminin. Ce projet vise à finir avec la marginalisation du savoir latino-américain plutôt qu’à sa décolonisation. Parmi les conclusions tirées par ce mémoire, il y a l’idée qu’en raison de la causalité historique de l’Amérique latine, telle que montrée par le roman, le moment n’est pas encore venu de l’avènement d’une libération culturelle qui permette la consolidation des épistémologies émergentes, dans la ligne de ce que suggèrent les études postcoloniales et la décolonialité. Une autre conclusion importante à mentionner est que l’évolution des idées est un processus historique dans lequel les courants idéologiques ne sont pas absolus et sont assujettis aux conjonctures sociales qui déterminent leur existence et permanence.
Resumo:
L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.
Resumo:
Au-delà des variables climatiques, d’autres facteurs non climatiques sont à considérer dans l’analyse de la vulnérabilité et de l’adaptation au changement et variabilité climatiques. Cette mutation de paradigme place l’agent humain au centre du processus d’adaptation au changement climatique, notamment en ce qui concerne le rôle des réseaux sociaux dans la transmission des nouvelles idées. Dans le domaine de l’agriculture, le recours aux innovations est prôné comme stratégie d’adaptation. L’élaboration et l’appropriation de ces stratégies d’adaptation peuvent être considérées comme des processus d’innovation qui dépendent autant du contexte social et culturel d’un territoire, de sa dynamique, ainsi que de la stratégie elle-même. Aussi, l’appropriation et la diffusion d’une innovation s’opèrent à partir d’un processus décisionnel à l’échelle de l’exploitation agricole, qui à son tour, demande une compréhension des multiples forces et facteurs externes et internes à l’exploitation et les multiples objectifs de l’exploitant. Ainsi, la compréhension de l’environnement décisionnel de l’exploitant agricole à l’échelle de la ferme est vitale, car elle est un préalable incontournable au succès et à la durabilité de toute politique d’adaptation de l’agriculture. Or, dans un secteur comme l’agriculture, il est reconnu que les réseaux sociaux par exemple, jouent un rôle crucial dans l’adaptation notamment, par le truchement de la diffusion des innovations. Aussi, l’objectif de cette recherche est d’analyser comment les exploitants agricoles s’approprient et conçoivent les stratégies d’adaptation au changement et à la variabilité climatiques dans une perspective de diffusion des innovations. Cette étude a été menée en Montérégie-Ouest, région du sud-ouest du Québec, connue pour être l’une des plus importantes régions agricoles du Québec, en raison des facteurs climatiques et édaphiques favorables. Cinquante-deux entrevues ont été conduites auprès de différents intervenants à l’agriculture aux niveaux local et régional. L’approche grounded theory est utilisée pour analyser, et explorer les contours de l’environnement décisionnel des exploitants agricoles relativement à l’utilisation des innovations comme stratégie d’adaptation. Les résultats montrent que les innovations ne sont pas implicitement conçues pour faire face aux changements et à la variabilité climatiques même si l’évolution du climat influence leur émergence, la décision d’innover étant largement déterminée par des considérations économiques. D’autre part, l‘étude montre aussi une faiblesse du capital sociale au sein des exploitants agricoles liée à l’influence prépondérante exercée par le secteur privé, principal fournisseur de matériels et intrants agricoles. L’influence du secteur privé se traduit par la domination des considérations économiques sur les préoccupations écologiques et la tentation du profit à court terme de la part des exploitants agricoles, ce qui pose la problématique de la soutenabilité des interventions en matière d’adaptation de l’agriculture québécoise. L’étude fait ressortir aussi la complémentarité entre les réseaux sociaux informels et les structures formelles de soutien à l’adaptation, de même que la nécessité d’établir des partenariats. De plus, l’étude place l’adaptation de l’agriculture québécoise dans une perspective d’adaptation privée dont la réussite repose sur une « socialisation » des innovations, laquelle devrait conduire à l’émergence de processus institutionnels formels et informels. La mise en place de ce type de partenariat peut grandement contribuer à améliorer le processus d’adaptation à l’échelle locale.
Resumo:
La production excessive de mucus visqueaux dans les poumons des patients atteints de la fibrose kystique (FK) gêne la diffusion des médicaments et entraîne des infections bactériennes. En effet, l’infection pulmonaire par Pseudomonas aeruginosa (PA) est la principale cause de mortalité. Les travaux effectués dans cette thèse avaient pour but de développer des nouvelles formulations de nanoparticules (NP) et de liposomes (LP) chargées avec des antibiotiques pour erradiquer le PA chez les patients atteints de KF. Tout d’abord, les polymères PEG-g-PLA et PLA-OH ont été synthétisés et caractérisés. Ensuite, l'efficacité d'encapsulation (EE) de la tobramycine, du sulfate de colistine et de la lévofloxacine (lévo) a été testée dans des NP de PEG-g-PLA et / ou PLA-OH. Les premiers essais d'optimisation ont montré que les NP chargées avec la lévo présentaient une augmentation de l’EE. La lévo reste alors le médicament de choix. Cependant, la meilleure charge de médicament obtenue était de 0,02% m/m. Pour cette raison, nous avons décidé d'évaluer l'encapsulation de la lévo dans les LP. En fait, des LP chargés de lévo ont présenté une EE d’environ 8% m/m. De plus, la taille et la charge de ces LP étaient appropriées pour la pénétration du vecteur dans le mucus. Le test de biofilm n'est pas reproductible, mais le test standard a montré que la souche mucoïde de PA était susceptible à la lévo. Ainsi, nous avons comparé les activités des LP fraîchement préparées (vides et chargés ) et de la lévo libre sous la forme planctonique de PA. Les résultats ont montré que des LP vides ne gênent pas la croissance bactérienne. Pour la souche mucoïde (Susceptible à la lévo) les LP chargés et le médicament libre ont présenté la même concentration minimale inhibitrice (CMI). Toutefois, les souches non mucoïdes (résistant à la lévo) ont présenté une CMI deux fois plus faible que celle pour le médicament libre. Finalement, les LP se sont avérés plus appropriés pour encapsuler des médicaments hydrophiles que les NP de PEG-g-PLA. En outre, les LP semblent améliorer le traitement contre la souche résistante de PA. Toutefois, des études complémentaires doivent être effectuées afin d'assurer la capacité des liposomes èa traiter la fibrose kystique.
Resumo:
L’attrait des compagnies pharmaceutiques pour des structures cycliques possédant des propriétés biologiques intéressantes par les compagnies pharmaceutiques a orienté les projets décrits dans ce mémoire. La synthèse rapide, efficace, verte et économique de ces structures suscite de plus en plus d’attention dans la littérature en raison des cibles biologiques visées qui deviennent de plus en plus complexes. Ce mémoire se divise en deux projets ciblant la synthèse de deux structures aromatiques importantes dans le monde de la chimie médicinale. Dans un premier temps, l’amélioration de la synthèse de dérivés phénoliques a été réalisée. L’apport de la chimie en flux continu dans le développement de voies synthétiques plus vertes et efficaces sera tout d’abord discuté. Ensuite, une revue des antécédents concernant l’hydroxylation d’halogénure d’aryle sera effectuée. Finalement, le développement d’une nouvelle approche rapide de synthèse des phénols utilisant la chimie en flux continu sera présenté, suivi d’un survol de ses avantages et ses limitations. Dans un deuxième temps, le développement d’une nouvelle méthodologie pour la formation de 3-aminoindazoles a été réalisé. Tout d’abord, un résumé de la littérature sur la synthèse de différents indazoles sera présenté. Ensuite, une présentation de deux méthodes efficaces d’activation de liens sera effectuée, soit l’activation d’amides par l’anhydride triflique et l’activation de liens C–H catalysée par des métaux de transition. Finalement, le développement d’une nouvelle méthodologie pour la synthèse de 3-aminoindazole utilisant ces deux approches sera discuté.
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.