996 resultados para Analyse non-linéaire
Resumo:
La candidose oro-pharyngée (COP) est l’infection fongique opportuniste la plus commune chez les individus infectés par le VIH-1. La production des cytokines Il-17 et Il-22 par les lymphocytes Th17 est importante lors de la résolution de la COP, puisque ces cytokines induisent la production de peptides antifongiques et le recrutement des neutrophiles polymorphonucléaires. Toutefois, les lymphocytes Th17 sont préférentiellement déplétés chez les individus infectés par le VIH-1. Le modèle de COP chez la souris transgénique (Tg) CD4C/HIVMutA, exprimant les gènes nef, env et rev du VIH-1, permettra de déterminer si des altérations quantitatives et/ou fonctionnelles des sous-populations de lymphocytes T CD4+ causent la sensibilité à la candidose. Les sous-populations Th1, Th2, Th1Th17, Th17 et Treg, ainsi que leurs précurseurs, les lymphocytes T CD4+ naïfs, sont sévèrement déplétées dans les ganglions cervicaux de la souris Tg. Cependant, les lymphocytes T CD4+ naïfs conservent la capacité à se différencier in vitro en présence de cytokines polarisantes et à produire les cytokines typiques des diverses sous-populations. De plus, les cytokines requises pour la polarisation des lymphocytes T CD4+ naïfs n’étaient pas réduites dans les ganglions cervicaux des souris Tg, 7 jours après le début de l’infection. Les gènes S100a8, Ccl20, Il17 et Il22 étaient surexprimés en réponse à la COP chez la souris non-Tg, mais pas chez la souris Tg. Le traitement de souris Tg infectées à l’aide de la combinaison des cytokines Il-17 et Il-22 réduit significativement la charge fongique buccale de C. albicans et le nombre d’hyphes dans l’épithélium de la langue et restaure la capacité à surexprimer des gènes S100a8, Ccl20 et Il22. Ces résultats démontrent que la perturbation de l’induction de l’immunité innée par l’Il-17 et l’Il-22 augmente la susceptibilité à la COP chez la souris Tg.
Resumo:
Symbole de modernité pendant la majeure partie du XXe siècle, la cigarette est depuis une trentaine d’années la cible d’interventions croissantes visant à réduire sa consommation. La lutte contre le tabac bénéficie d’un dispositif sans précédent qui fait office de cas d’école en santé publique, par son ampleur et par l’adhésion qu’il suscite. L’intérêt d’étudier cet objet réside ainsi dans la propriété essentielle de la lutte anti-tabac de relier un dispositif institutionnel et des motivations subjectives. Le dispositif anti-tabac (DAT) a en effet vocation à faire converger les prescriptions normatives d’un ensemble d’institutions et les désirs individuels, et y parvient manifestement dans une certaine mesure. Il permet dès lors d’aborder à la fois un travail sur les sociétés et un travail sur soi. Cette thèse entreprend une analyse sociologique du dispositif anti-tabac au Québec et vise à interroger les modalités et les fins de ce contrôle public de la consommation de tabac, en mettant au jour ses dimensions culturelles, symboliques et politiques. La santé publique apparaissant de nos jours comme lieu central de l’espace politique et social dans les sociétés contemporaines (Fassin et Dozon, 2001 :7), l’utopie d’un « monde sans fumée » se révèle selon nous tout à fait typique des enjeux qui caractérisent la modernité avancée ou « société du risque » (Beck, 2001, [1986]). Après avoir présenté le rapport historiquement ambivalent des pays occidentaux au tabac et ses enjeux, puis problématisé la question de la consommation de substances psychotropes dans le cadre d’une production et d’une construction sociale et culturelle (Fassin, 2005a), nous inscrivons le DAT dans le cadre d’une biopolitique de la population (Foucault, 1976; 1997; 2004b). À l’aune des enseignements de Michel Foucault, cette thèse consiste ainsi en l’analyse de discours croisée du dispositif institutionnel anti-tabac et de témoignages d’individus désirant arrêter de fumer, au regard du contexte social et politique de la société moderne avancée. Le DAT illustre les transformations à l’œuvre dans le champ de la santé publique, elles-mêmes caractéristiques d’une reconfiguration des modes de gouvernement des sociétés modernes avancées. La nouvelle biopolitique s’adresse en effet à des sujets libres et entreprend de produire des citoyens responsables de leur devenir biologique, des sujets de l’optimisation de leurs conditions biologiques. Elle s’appuie sur une culpabilité de type « néo-chrétien » (Quéval, 2008) qui caractérise notamment un des leviers fondamentaux du DAT. Ce dernier se caractérise par une lutte contre les fumeurs plus que contre le tabac. Il construit la figure du non-fumeur comme celle d’un individu autonome, proactif et performant et fait simultanément de l’arrêt du tabac une obligation morale. Par ce biais, il engage son public à se subjectiver comme citoyen biologique, entrepreneur de sa santé. L’analyse du DAT au Québec révèle ainsi une (re)moralisation intensive des questions de santé, par le biais d’une biomédicalisation des risques (Clarke et al., 2003; 2010), particulièrement représentative d’un nouveau mode d’exercice de l’autorité et de régulation des conduites dans les sociétés contemporaines, assimilée à une gouvernementalité néolibérale. Enfin, l’analyse de témoignages d’individus engagés dans une démarche d’arrêt du tabac révèle la centralité de la santé dans le processus contemporain d’individuation. La santé publique apparait alors comme une institution socialisatrice produisant un certain « type d’homme » centré sur sa santé et adapté aux exigences de performance et d’autonomie prévalant, ces éléments constituant désormais de manière croissante des clés d’intégration et de reconnaissance sociale.
Resumo:
Cette thèse porte sur l’évolution des relations des « nationalités historiques » espagnoles avec l’Union européenne dans les années 1992-2008. L’analyse se concentre sur la genèse d’une paradiplomatie nationaliste européenne dont l’objectif est la reconnaissance de l’identité nationale de ces communautés au sein de l’Union européenne. Après avoir obtenu une certaine reconnaissance nationale et un statut privilégié en Espagne, les élites de ces « nations sans État » ont remarqué que le processus de construction de l’Union européenne a des conséquences négatives sur leur autonomie et, dans ce contexte, ces élites nationalistes sont obligées à concevoir une vraie politique européenne pour protéger leurs intérêts nationaux en Espagne et dans l’Union européenne. À partir de l’étude des rapports établis entre les « nationalités historiques » espagnoles avec l’Union européenne, nous démontrons que l’involution autonomique (en Espagne) et le manque d’empathie de l’Union européenne envers ces communautés nationales sont les principales causes de la genèse de leur politique européenne. Loin d’être simplement associée à une forme de régionalisme ou de néo-régionalisme, cette politique étrangère (« action extérieure ») de ces entités envers l’Union européenne fait partie d’un processus de construction nationale et pourrait être définie comme une paradiplomatie nationaliste. La présente thèse, basée sur une analyse de la politique européenne des « nationalités historiques » entre 1992 et 2008, soutient que les limites du dessein institutionnel de l’Union européenne représentent la principale raison d’être de l’évolution de la paradiplomatie nationaliste vers une protodiplomatie apparemment incohérente. Dans une telle situation, l’inaptitude institutionnelle de l’Union européenne à accommoder les demandes nationalistes serait une cause majeure de l’échec des initiatives nationalistes autonomistes et, en même temps, une cause de l’émergence d’un nouveau courant nationaliste au sein des élites des « nations sans État » occidentales, dont le but est la construction d’un propre État national à l’intérieur de l’Union européenne.
Resumo:
De grandes enquêtes en milieu scolaire, au Québec comme ailleurs, ont documenté depuis les années 2000 la portée des violences homophobes, particulièrement à l’école secondaire, ainsi que leurs impacts négatifs sur les élèves qui en sont victimes, qu’ils s’identifient ou non comme lesbiennes, gais, bisexuel(le)s ou en questionnement (LGBQ). La diffusion des résultats de ces enquêtes, ainsi que les constats similaires d’acteurs sur le terrain, ont fait accroitre les appels à la vigilance des écoles quant aux discriminations homophobes pouvant prendre forme en leur enceinte. Plusieurs des responsabilités résultant de cette mobilisation ont échoué par défaut aux enseignants, notamment en raison de leur proximité avec leurs élèves. Cependant, malgré la panoplie de publications et de formations visant explicitement à les outiller à ce sujet, les enseignants rapportent de manière consistante manquer de formation, d’habiletés, de soutien et d’aise à l’idée d’intervenir contre l’homophobie ou de parler de diversité sexuelle en classe. Cette thèse de doctorat vise à comprendre les pratiques d’intervention et d’enseignement que rapportent avoir les enseignants de l’école secondaire québécoise, toutes orientations sexuelles confondues, par rapport à la diversité sexuelle et à l’homophobie. Dans une perspective interdisciplinaire, nous avons interrogé la sociologie de l’éducation, les études de genre (gender studies) et les études gaies et lesbiennes, ainsi qu’emprunté aux littératures sur les pratiques enseignantes et sur l’intervention sociale. Les données colligées consistent en des entrevues semi-structurées menées auprès de 22 enseignants du secondaire, validées auprès de 243 enseignants, par le biais d’un questionnaire en ligne. Étayés dans trois articles scientifiques, les résultats de notre recherche permettent de mieux saisir la nature des pratiques enseignantes liées à la diversité sexuelle, mais également les mécanismes par lesquels elles viennent ou non à être adoptées par les enseignants. Les témoignages des enseignants ont permis d’identifier que les enseignants sont globalement au fait des attentes dont ils font l’objet en termes d’intervention contre l’homophobie. Ceci dit, en ce qu’ils sont guidés dans leurs interventions par le concept limité d’homophobie, ils ne paraissent pas toujours à même de saisir les mécanismes parfois subtils par lesquels opèrent les discriminations sur la base de l’orientation sexuelle, mais aussi des expressions de genre atypiques. De même, si la plupart disent condamner vertement l’homophobie dont ils sont témoins, les enseignants peuvent néanmoins adopter malgré eux des pratiques contribuant à reconduire l’hétérosexisme et à alimenter les mêmes phénomènes d’infériorisation que ceux qu’ils cherchent à combattre. Sauf exception, les enseignants tendent à comprendre le genre et l’expression de genre davantage comme des déterminants de type essentialiste avec lesquels ils doivent composer que comme des normes scolaires et sociales sur lesquelles ils peuvent, comme enseignants, avoir une quelconque influence. Les stratégies de gestion identitaire des enseignants LGB influencent les pratiques qu’ils rapportent être en mesure d’adopter. Ceux qui optent pour la divulgation, totale ou partielle, de leur homosexualité ou bisexualité peuvent autant rapporter adopter des pratiques inclusives que choisir de se tenir à distance de telles pratiques, alors que ceux qui favorisent la dissimulation rapportent plutôt éviter autant que possible ces pratiques, de manière à se garder de faire face à des situations potentiellement délicates. Également, alors que les enseignants LGB étaient presque exclusivement vus jusqu’ici comme ceux chez qui et par qui se jouaient ces injonctions à la vie privée, les enseignants hétérosexuels estiment également être appelés à se positionner par rapport à leur orientation sexuelle lorsqu’ils mettent en œuvre de telles pratiques. Nos résultats révèlent un double standard dans l’évocation de la vie privée des enseignants. En effet, la divulgation d’une orientation hétérosexuelle, considérée comme normale, est vue comme conciliable avec la neutralité attendue des enseignants, alors qu’une révélation similaire par un enseignant LGB est comprise comme un geste politique qui n’a pas sa place dans une salle de classe, puisqu’elle se fait au prix du bris d’une présomption d’hétérosexualité. Nos résultats suggèrent qu’il existe de fortes prescriptions normatives relatives à la mise en genre et à la mise en orientation sexuelle à l’école. Les enseignants s’inscrivent malgré eux dans cet environnement hétéronormatif. Ils peuvent être amenés à y jouer un rôle important, que ce soit en contribuant à la reconduction de ces normes (par exemple, en taisant les informations relatives à la diversité sexuelle) ou en les contestant (par exemple, en expliquant que certains stéréotypes accolés à l’homosexualité relèvent d’aprioris non fondés). Les discours des enseignants suggèrent également qu’ils sont traversés par ces normes. Ils peuvent en effet choisir de se conformer aux attentes normatives dont ils font l’objet (par exemple, en affirmant leur hétérosexualité), ou encore d’y résister (par exemple, en divulguant leur homosexualité à leurs élèves, ou en évitant de conforter les attentes dont ils font l’objet) au risque d’être conséquemment pénalisés. Bien entendu, cette influence des normes de genre diffère d’un enseignant à l’autre, mais semble jouer autant sur les enseignants hétérosexuels que LGB. Les enseignants qui choisissent de contester, explicitement ou implicitement, certaines de ces normes dominantes rapportent chercher des appuis formels à leurs démarches. Dans ce contexte, une telle quête de légitimation (par exemple, la référence aux règlements contre l’homophobie, la mobilisation des similitudes entre l’homophobie et le racisme, ou encore le rapprochement de ces enseignements avec les apprentissages prescrits pour leur matière) est à comprendre comme un outillage à la contestation normative. La formation professionnelle des enseignants sur l’homophobie et sur la diversité sexuelle constitue un autre de ces outils. Alors que les enseignants québécois continuent d’être identifiés comme des acteurs clés dans la création et le maintien d’environnements scolaires non-discriminatoires et inclusifs aux réalités de la diversité sexuelle, il est impératif de les appuyer en multipliant les signes formels tangibles sur lesquelles leurs initiatives peuvent prendre appui (politiques explicites, curriculum scolaire inclusif de ces sujets, etc.). Nos résultats plaident en faveur d’une formation enseignante sur la diversité sexuelle, qui ferait partie du tronc commun de la formation initiale des maîtres. Chez les enseignants en exercice, il nous apparait préférable de miser sur une accessibilité accrue des formations et des outils disponibles. En réponse toutefois aux limites que pose à long terme une approche cumulative des formations spécifiques portant sur différents types d’oppressions (l’homophobie, le racisme, le sexisme, etc.), nous argumentons en faveur d’un modèle d’éducation anti-oppressive au sein duquel les élèves seraient invités à considérer, non seulement la multiplicité et le caractère situé des divers types d’oppressions, mais également les mécanismes d’attribution de privilège, de constitution de la normalité et de la marginalité, et de présentation de ces arbitraires culturels comme des ordres naturels.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maîtrise ès sciences (M. Sc.) en sciences infirmières, option expertise-conseil
Resumo:
Ce présent mémoire examine la probabilité qu'une Canadienne française née entre 1700-1749 et mariée fasse l’expérience d'au moins une naissance au cours de la quarantaine, en tenant compte des particularités de la trajectoire individuelle, des caractéristiques familiales et du contexte historique. Nos analyses confirment que sur les 14 727 femmes à risque d'une maternité entre 40 et 49 ans, 62 % d'entre elles donnent naissance après l'âge de 40 ans. Selon les différentes trajectoires féminines, des disparités tangibles se manifestent dans le fait d'enfanter à un âge avancé. Nos résultats suggèrent que la possibilité qu'une femme accouche dans la quarantaine est positivement associée à un ensemble de facteurs liés à son parcours de vie: une première union entre l’âge de 20 et de 24 ans, un conjoint du même âge ou un conjoint plus jeune, une union continue (ou sans décès du conjoint) jusqu’à 40 ans ou passé cet âge, un enfant précédent non survivant et un historique familial dans lequel la mère de cette femme et au moins l’une de ses sœurs ont donné naissance à un âge avancé. De plus, l'intensité du phénomène de la maternité tardive diminue de manière perceptible au court du temps, particulièrement chez les cohortes de femmes ayant accouché après 1765. La vie en milieu « urbain » influence également de manière négative les chances d'enfanter à un âge avancé. Il se peut que la détérioration des conditions de vie générales vers la fin du 18e siècle, cousinées à la récurrence de maladies infectieuses et l'insalubrité des villes durant cette période, explique la diminution du risque d'une maternité durant la quarantaine. Les résultats obtenus témoignent de la forte contribution des Canadiennes françaises en matière de fécondité tardive en contexte naturel. Notre étude exploratoire offre aussi une perspective utile permettant de mieux comprendre la maternité tardive contemporaine, sujet qui fait l’objet de nombreux débats actuellement.
Resumo:
La malhonnêteté académique au cours d’épreuves présente des enjeux importants quant à l’intégrité des évaluations. La présence des TIC étant de plus en plus importante en cours de passation dans les épreuves, il est important avec ce mode de récolte de données d’assurer un niveau de sécurité égal ou même supérieur à celui présent lorsqu’un mode de récolte de données traditionnel, le papier-crayon, est utilisé. Il existe plusieurs recherches sur l’utilisation des TIC dans l’évaluation, mais peu d’entre elles traitent des modalités de sécurité lors de l’utilisation des TIC. Dans ce mémoire, treize organisations québécoises ont été rencontrées: six qui utilisaient les TIC dans la passation, cinq qui utilisaient le papier-crayon dans la passation mais qui désiraient utiliser les TIC et deux qui utilisaient le papier-crayon et qui ne désiraient pas utiliser les TIC. Les organisations sont des établissements d’enseignement (primaire, secondaire, collégial, universitaire), des entreprises privées, des organismes gouvernementaux ou municipaux et des ordres professionnels. Des entrevues semi-structurées et une analyse qualitative par présence ou absence de différentes caractéristiques ont permis de documenter les modalités de sécurité liées à la récolte de données en vue de l’évaluation en utilisant les TIC. Ces modalités ont été comparées à celles utilisées lors de l’utilisation du papier-crayon dans la récolte de données en vue de l’évaluation afin de voir comment elles varient lors de l’utilisation des TIC. Les résultats révèlent que l’utilisation des TIC dans la passation complexifie et ajoute des étapes à la préparation des épreuves pour assurer un niveau de sécurité adéquat. Cependant elle permet également de nouvelles fonctions en ce qui concerne le type de questions, l’intégration de multimédia, l’utilisation de questions adaptatives et la génération aléatoire de l’épreuve qui permettent de contrer certaines formes de malhonnêteté académiques déjà présentes avec l’utilisation du papier-crayon dans la passation et pour lesquelles il était difficile d’agir. Toutefois, l’utilisation des TIC dans la passation peut aussi amener de nouvelles possibilités de malhonnêteté académique. Mais si ces dernières sont bien prises en considération, l’utilisation des TIC permet un niveau de sécurité des épreuves supérieur à celui où les données sont récoltées au traditionnel papier-crayon en vue de l’évaluation.
Psychopathie chez les individus non incarcérés et coopération dans un dilemme du prisonnier itératif
Resumo:
Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.
Analyse des processus de dérive lors de la gravure profonde du silicium dans des plasmas SF6 et C4F8
Resumo:
L’objectif de ce mémoire de maîtrise est de développer des outils de diagnostics non-invasifs et de caractériser in-situ les dérives de procédé dans un réacteur industriel utilisé en production pour la gravure profonde du silicium par le procédé Bosch. Ce dernier repose sur l’alternance d’un plasma de SF6 pour la gravure isotrope du Si et d’un plasma de C4F8 pour la passivation des parois dans l’optique d’obtenir des tranchées profondes et étroites. Dans un premier temps, nous avons installé une sonde courant-tension sur la ligne de transmission du signal rf au porte-substrat pour l’étude de son impédance caractéristique et un spectromètre optique pour l’étude de l’émission optique du plasma. Nos travaux ont montré que l’évolution temporelle de l’impédance constitue un excellent moyen pour identifier des changements dans la dynamique du procédé, notamment une gravure complète de la photorésine. De plus, à partir des spectres d’émission, nous avons pu montrer que des produits carbonés sont libérés du substrat et des parois lors de l’alternance passivation/gravure et que ceux-ci modifient considérablement la concentration de fluor atomique dans le plasma. Dans un second temps, nous avons développé un réacteur à « substrat-tournant » pour l’analyse in-situ des interactions plasma-parois dans le procédé Bosch. Nos travaux sur ce réacteur visaient à caractériser par spectrométrie de masse l’évolution temporelle des populations de neutres réactifs et d’ions positifs. Dans les conditions opératoires étudiées, le SF6 se dissocie à près de 45% alors que le degré de dissociation du C4F8 atteint 70%. Le SF6 est avant tout dissocié en F et SF3 et l’ion dominant est le SF3+ alors que le C4F8 est fragmenté en CF, CF3 et CF4 et nous mesurons plusieurs ions significatifs. Dans les deux cas, la chaîne de dissociation demeure loin d’être complète. Nous avons noté une désorption importante des parois de CF4 lors du passage du cycle de passivation au cycle de gravure. Un modèle d’interactions plasmas-parois est proposé pour expliquer cette observation.
Resumo:
Dans l’ère post-industrielle, où la densification apparaît comme une solution afin de freiner l’étalement urbain, la question de l’avenir des terrains en friche devient incontournable. En effet, ceux-ci deviennent hautement convoités par les acteurs du redéveloppement urbain puisqu’ils détiennent un potentiel foncier important. Face à ces pressions, cette recherche s’intéresse à la complexité des terrains en friche, puisqu’il existe une diversité de potentiels, outre le foncier. Parmi ces potentiels, les friches peuvent être utilisées comme des espaces verts urbains. Effectivement, il arrive qu’on retrouve sur ces sites des usagers qui les fréquentent, à différents desseins. L’étude tente ainsi de répertorier et de comprendre les pratiques faites par les usagers, pour deux cas étudiés à Montréal : le Boisé Jean-Milot et le Champ des possibles. L’objectif est non seulement de qualifier ces pratiques, mais également de mettre en évidence les facteurs d’influence qui les sous-tendent. La recherche s’inscrit dans les approches personnes-environnement. D’un point de vue méthodologique, des entretiens in situ ont été menés avec les usagers afin qu’ils puissent expliquer leur expérience vécue de la friche. Les facteurs d’influence ont émergé des discours tenus en entrevue. Les cas étudiés montrent que la friche est un espace d’exception en ville : les friches urbaines végétalisées sont le cadre de pratiques exclusives, en plus de faire vivre une variété d’ambiances à l’usager. Les résultats permettent ainsi de placer la friche comme un espace vert complémentaire au parc urbain. La friche fait partie d’un portfolio d’espaces disponibles, utilisés au moment présent. En relevant les facteurs qui influencent les usagers à fréquenter les friches, on met en lumière des qualités qui pourraient être utiles dans la planification des espaces verts urbains et dans le développement d’une vision innovante pour l’avenir des friches.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
Les programmes éducatifs de jardinage alimentaire avec les jeunes offrent l’opportunité d’agir sur leurs connaissances nutritionnelles, préférences pour des légumes, sentiment d'efficacité personnelle à consommer des fruits et légumes, envie d'y goûter et leur consommation. Dans ces activités, certains obstacles peuvent freiner l'éducation alimentaire et nutritionnelle faite par des animateurs qui ne sont pas professionnels de la nutrition ou de la santé. Le présent projet consistait à développer un volet alimentaire et nutritionnel éducatif pour les "Jardins-jeunes" (JJ), un camp d'été en jardinage du Jardin botanique de Montréal, à offrir une courte formation en nutrition à ses animatrices, puis à évaluer leurs niveaux d'intérêt et de confiance personnelle à intégrer ce volet à l'édition 2013. Les méthodes d'évaluation auprès des animatrices comprenaient des entrevues de groupe, des questionnaires et une observation-terrain. La taille d'échantillon permettait uniquement une analyse qualitative des résultats. La formation semble avoir maintenu ou élevé les niveaux de confiance et de connaissances des animatrices sur plusieurs sujets alimentaires et nutritionnels. Les animatrices évoquent que les trois activités de trente minutes en alimentation et nutrition, intégrées aux JJ 2013, auraient favorisé l'éducation nutritionnelle, qui par ailleurs, fut limitée par manque de temps. Elles rapportent avoir perçu des effets positifs du programme sur les connaissances, attitudes et comportements alimentaires des jeunes. Nos résultats suggèrent qu'un volet d’éducation alimentaire et nutritionnelle peut être intégré à un programme de jardinage par des animateurs non spécialisés dans ces domaines, outillés et encadrés pour se sentir motivés et confiants dans leur rôle.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.