835 resultados para Recours dérivé


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète auto-immun résulte de la destruction des cellules bêta pancréatiques sécrétrices d’insuline par les lymphocytes T du système immunitaire. Il s’ensuit une déficience hormonale qui peut être comblée par des injections quotidiennes d’insuline d’origine exogène, toutefois il demeure à ce jour impossible de guérir les patients atteints de la maladie. De façon générale, un système immunitaire sain reconnaît une multitude d’antigènes différents et assure ainsi notre défense à l’égard de différents pathogènes ou encore de cellules tumorales. Il arrive cependant que, pour des raisons génétiques et/ou environnementales, les lymphocytes T puissent s’activer de façon aberrante suite à la reconnaissance d’antigènes provenant du soi. C’est ce bris de tolérance qui mène au développement de pathologies auto-immunes telles que le diabète auto-immun. Afin de limiter l’auto-immunité, des mécanismes de sélection stricts permettent d’éliminer la majorité des lymphocytes T présentant une forte affinité envers des antigènes du soi lors de leur développement dans le thymus. Certains de ces lymphocytes réussissent toutefois à échapper à l’apoptose et migrent en périphérie afin d’y circuler en quête d’un antigène spécifiquement reconnu. Il est alors primordial que des mécanismes périphériques assurent le maintien de la tolérance immunitaire en faisant obstacle à l’activation et à la prolifération des lymphocytes T auto-réactifs. L’une des avenues afin d’inhiber le développement de réponses immunitaires aberrantes est la génération de lymphocytes T régulateurs. Ces cellules, d’origine thymique ou périphérique, peuvent arborer différents phénotypes et agissent via de multiples mécanismes afin d’inactiver et/ou éliminer les cellules impliquées dans l’apparition de pathologies auto-immunes. L’utilisation de modèles murins transgéniques a permis la mise en évidence d’une population peu caractérisée de lymphocytes T au potentiel régulateur. En effet, la proportion de ces cellules T n’exprimant pas les corécepteurs CD4 et CD8 (double négatives, DN) a été inversement corrélée à la prédisposition à l’auto-immunité chez ces ii souris. L’objectif principal de cette thèse est de démontrer la fonction immuno-régulatrice des lymphocytes T DN, tout en investiguant les facteurs génétiques responsables du maintien de cette population cellulaire. Nous avons observé que les lymphocytes T DN exercent une activité cytotoxique à l’égard des lymphocytes B de façon spécifique à l’antigène, via la libération de granules cytolytiques contenant du granzyme B et de la perforine. Par ailleurs, nous avons établi qu’un unique transfert adoptif de ces cellules est suffisant afin d’inhiber le développement du diabète auto-immun chez des hôtes transgéniques prédisposés à la maladie. Le recours à des souris déficientes pour l’expression du gène CD47 a permis de constater que la voie de signalisation CD47-Sirp est essentielle dans le maintien de la proportion des lymphocytes T DN. De plus, le locus murin de prédisposition au diabète auto-immun Idd13, qui contient le gène Sirp, a été identifié pour son rôle dans la régulation de la proportion de ces cellules. Finalement, une analyse génétique a révélé que d’autres intervalles génétiques sont impliqués dans le contrôle de la population des lymphocytes T DN. Parmi ceux-ci, un locus situé en région proximale du chromosome 12 a été validé grâce à la création de souris congéniques. Grâce aux résultats présentés dans cette thèse, notre compréhension de la biologie ainsi que de la régulation des lymphocytes T DN est approfondie. Ces connaissances constituent un pas important vers la création de thérapies cellulaires novatrices permettant de prévenir et de guérir diverses pathologies auto-immunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte social où se renégocie le contrat de genre, l’exploration des voies empruntées par les hommes pour (apprendre à) changer leur comportement, aussi bien que leurs croyances et leurs connaissances sur la masculinité, est particulièrement importante. Située dans le champ des études sur le genre masculin et de l’andragogie, l’étude explore le processus d’apprentissage d’adultes faisant partie du Réseau Hommes Québec (RHQ). En utilisant une méthodologie qualitative, des entretiens semi-dirigés ont été effectués auprès de 16 membres de cette organisation d’entraide visant la remise en question des rôles de genre traditionnels masculins et encourageant le développement personnel des hommes. Si la plupart des répondants n’ont pas transformé radicalement leur conception de la masculinité, qui demeure souvent abstraite, leur façon de se voir comme homme a changé radicalement. Les émotions et les relations ont joué un rôle prépondérant dans le développement d’une réflexion critique sur le genre, le leur comme celui des autres. Le plus souvent, ils ont eu le courage de sentir, d’être et d’agir de façon inédite avec d’autres hommes. Cela a représenté, pour pratiquement tous les répondants, une véritable révolution intérieure qui leur a fait prendre conscience qu’ils étaient sensibles, qu’ils avaient besoin d’autrui et qu’ils pouvaient approcher d’autres hommes sans que leur orientation (hétéro)sexuelle soit menacée. Cette thèse met également en perspective que le contexte de groupe est crucial dans l’évolution des hommes. La socialisation masculine inédite vécue dans le Réseau favorise chez tous les répondants la découverte de modèles de masculinité différents. En plus d’y vivre des occasions uniques de développer des compétences relationnelles, sociales et communicationnelles qui les rapprochent de leurs proches, les répondants éprouvent dans les groupes du RHQ un sentiment puissant de pouvoir partager de l’intimité masculine. Ce nouveau mode d’interaction s’appuie sur les règles de fonctionnement et les rituels en vigueur dans le Réseau. Ils mettent l’accent sur la nature personnelle et subjective de la communication, défiant en cela les préceptes de la masculinité traditionnelle. En mettant en évidence que les hommes développent une conscience critique permettant de reconnaître et de comprendre l’importance de la culture masculine hégémonique et son impact sur leur vie, cette recherche révèle le potentiel transformationnel des apprentissages effectués par les 16 répondants dans des groupes d’entraide du RHQ. De cette conscientisation résulte une nouvelle conceptualisation de ce que signifie être un homme qui mène les participants à se voir autrement, à croire en eux-mêmes et en leur capacité à prendre le contrôle de leur vie. Pour conclure cette thèse, quelques pistes de réflexion pour guider de futures recherches relatives à la transformation de perspective sont présentées. Il est notamment question, en plus d’avoir recours à des entretiens rétrospectifs semi-dirigés, de combiner les méthodologies qualitatives et quantitatives, de procéder à des observations systématiques des situations d’apprentissage (rencontres de groupe) et de ne pas se concentrer exclusivement sur ceux qui sont supposés vivre la transformation, mais d’élargir cette collecte à d’autres sources d’information (familles, collègues de travail, voisins, thérapeutes individuels), le tout dans une perspective longitudinale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche sur les questions touchant aux leaders de groupes sectaires et à la violence sectaire a mené à l’étude du rôle joué par l’autorité charismatique, tel que défini par Weber (1922) et repris par Dawson (2010). À ce sujet, d’éminents spécialistes des études sur les sectes sont d’avis qu’un vide important dans la recherche sur l’autorité charismatique dans le contexte de groupes sectaires et de nouveaux mouvements religieux reste à combler (ajouter les références ‘d’éminents spécialistes’). Ce mémoire vise à contribuer à l’étude cet aspect négligé, le rôle de l’autorité charismatique dans le recours è la violence dans les groupes sectaires, par une étude de cas historique d’un groupe de la Réformation protestante du XVIe siècle, le Royaume anabaptiste de Münster (AKA), sous l’influence d’un leader charismatique, Jan van Leiden. Cette recherche s’intéresse plus spécifiquement aux divers moyens utilisés par Jan van Leiden, pour asseoir son autorité charismatique et à ceux qui ont exercé une influence sur le recours à des actes de violence. L’étude de cas est basé sur le matériel provenant de deux comptes-rendus des faits relatés par des participants aux événements qui se sont déroulés à pendant le règne de Leiden à la tête du AKA. L’analyse du matériel recueilli a été réalisé à la lumière de trois concepts théoriques actuels concernant le comportement cultuel et le recours à la violence.. L’application de ces concepts théoriques a mené à l’identification de quatre principales stratégies utilisées par Jan van Leiden pour établir son autorité charismatique auprès de ses disciples, soit : 1) la menace du millénarisme, 2) l’exploitation d’une relation bilatérale parasitique avec ses disciples, 3) l’utilisation de l’extase religieuse et de la prophétie, 4) l’utilisation du désir de voir survenir des changements sociaux et religieux. En plus de ces quatre stratégies, trois autres dimensions ont été retenues comme signes que le recours à la violence dans le Royaume anabaptiste de Münster résultait de l’établissement de l’autorité charismatique de son leader, soit : 1) la violence liée au millénarisme, 2) la notion d’identité et de violence partagée, 3) des facteurs systémiques, physiques et culturels menant à la violence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par son recours à diverses formes d’expression, Unica Zürn (1916-1970) redynamise l’espace de la feuille en le faisant activement participer à l’écriture de soi. Le « je » semble en effet se démultiplier grâce à des jeux « anagrammatiques » sur les divers signes mobilisés, qu’ils soient alphabétiques, picturaux ou musicaux. L’autoreprésentation s’inscrit alors au sein d’une œuvre pluridisciplinaire inusitée, qui renouvelle l’esthétique quelque peu « essoufflée » du mouvement surréaliste. Cette attitude vis-à-vis de la feuille, où plusieurs signes « décomposables » et « recomposables » se partagent l’espace, est observable tant dans l’œuvre littéraire que picturale d’Unica Zürn. Le processus de création par la lettre, le trait et la note de musique, tend à revaloriser le support matériel utilisé par l’effacement des frontières entre les disciplines artistiques, qui appelle un regard distancié du lecteur/spectateur sur l’œuvre. Afin d’interpréter les travaux de Zürn dans la pluralité des moyens artistiques qui y sont déployés, l’approche intermédiale sera favorisée. Dans le premier chapitre de ce mémoire, il s’agira d’abord de voir comment s’articule un certain dialogue entre le discours des chercheurs de l’intermédialité et l’œuvre d’Unica Zürn. Le rapport à l’objet sera notre porte d’entrée dans la matière intermédiale. Par un retour à la matérialité de l’expérience médiatique, nous constaterons que Zürn met à l’avant-scène les instruments et supports de la création, ce qui mène à une représentation distorsionnée de soi, de l’espace et du temps. Une fois le parallèle établi entre les concepts de l’intermédialité et les travaux de Zürn, nous nous concentrerons sur le pan musical de l’œuvre pluridisciplinaire de l’auteure-artiste. Le second chapitre traitera de l’intrusion du sonore dans l’univers textuel, qui se fera notamment par la réappropriation de l’opéra Norma, de Vincenzo Bellini. Cette réécriture s’intitule Les jeux à deux et prend une distance considérable par rapport au texte originel. Elle s’accompagne de dessins effectués par l’auteure-artiste à même les partitions de l’opéra. Le regard multiple posé sur l’œuvre zürnienne permettra de comprendre que l’écriture palimpseste participe du processus d’autoreprésentation, tout en élaborant un discours sur la rencontre entre littérature, dessin et musique, ainsi que sur l’influence de cette juxtaposition sur le débordement des frontières médiatiques traditionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La documentation des programmes aide les développeurs à mieux comprendre le code source pendant les tâches de maintenance. Toutefois, la documentation n’est pas toujours disponible ou elle peut être de mauvaise qualité. Le recours à la redocumentation s’avère ainsi nécessaire. Dans ce contexte, nous proposons de faire la redocumentation en générant des commentaires par application de techniques de résumé par extraction. Pour mener à bien cette tâche, nous avons commencé par faire une étude empirique pour étudier les aspects quantitatifs et qualitatifs des commentaires. En particulier, nous nous sommes intéressés à l’étude de la distribution des commentaires par rapport aux différents types d’instructions et à la fréquence de documentation de chaque type. Aussi, nous avons proposé une taxonomie de commentaires pour classer les commentaires selon leur contenu et leur qualité. Suite aux résultats de l’étude empirique, nous avons décidé de résumer les classes Java par extraction des commentaires des méthodes/constructeurs. Nous avons défini plusieurs heuristiques pour déterminer les commentaires les plus pertinents à l’extraction. Ensuite, nous avons appliqué ces heuristiques sur les classes Java de trois projets pour en générer les résumés. Enfin, nous avons comparé les résumés produits (les commentaires produits) à des résumés références (les commentaires originaux) en utilisant la métrique ROUGE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude de la formation d'une communauté épistémique québécoise en santé publique en ayant recours à l'interactionnisme-structural permet d'appréhender ce phénomène social sous l'angle d'une influence réciproque entre d'une part des acteurs sociaux interagissant entre-eux et d'autre part, des conceptualisations variées des objets de santé publique; ces éléments sociaux et sémantiques subissent des transformations simultanées. Notre étude démontre et illustre qu'au même moment où un réseau social de chercheurs prend forme, une thématique nouvelle prend place et rallie ces mêmes chercheurs, non pas seulement dans leurs relations sociales, mais dans les idées qu'ils manipulent lors de leur travail de production et de diffusion de connaissances; les identités sociales se lient, mais pas au hasard, parce qu'elles partagent des éléments sémantiques communs. C'est notamment en explorant 20 ans de collaborations scientifiques à l'aide d'outils d'analyse de réseaux, d'analyse en composantes discrètes et par l'exporation de treillis de Galois que cette étude a été menée. Notre approche est principalement exploratoire et une attention toute particulière est portée sur les aspects méthodologiques et théoriques du travail de recherche scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude aborde les questionnements relatifs à l’homologation et à l’entérinement d’une entente de règlement amiable conclue dans le cadre des processus de médiation ou de conciliation administrative. L’étude vise d’abord à clarifier les concepts en définissant précisément la terminologie privilégiée. La mise en œuvre des demandes est ensuite analysée au regard de la compétence des tribunaux administratifs et de celle des tribunaux de droit commun à l’égard d’un accord de conciliation ou d’une transaction conclu dans le cadre d’un litige administratif. Les formalités relatives à la présentation de la demande sont exposées. Les tests de conformité à la loi et à l’ordre public sont ensuite circonscrits pour terminer par un examen des conséquences de l’homologation ou de l’entérinement de l’entente sur les recours ultérieurs possibles tels que le recours en révision administrative ou le recours en révision judiciaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de ce texte est une forme très ciblée de ségrégation démographique : la ségrégation selon le type de famille. Cependant, puisque la répartition spatiale des familles mariées, des familles en union libre, des familles monoparentales à chef féminin et de celles à chef masculin ne dépend pas uniquement de leur structure, il faut aussi considérer d'autres facettes de leur identité, notamment leurs caractéristiques socio-économiques et ethnoculturelles. La combinaison de ces facteurs engendre une ségrégation croisée que nous explorons avec les données du recensement de 2006 pour la région métropolitaine de Montréal. Nous utilisons d'abord des indices de ségrégation pour mettre en évidence une ségrégation familiale "brute", puis nous avons recours à des modèles de locational attainment pour déterminer l'effet "net" du type de famille sur le revenu médian du quartier de résidence et sur la distance qui sépare ce quartier du centre-ville. Nous trouvons qu'il existe une interaction importante entre l'appartenance ethnoculturelle, le revenu familial et le type de famille ce qui nous conduit à relativiser les résultats de recherches qui ne prennent pas en compte l'hétérogénéité interne des types de famille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature québécoise du XIXe siècle souffre de lourds préjugés que la critique contemporaine semble difficilement dépasser. Il est principalement reproché aux auteurs d’écrire de mauvais romans, privilégiant le fond au détriment de la forme. Pourtant, la lecture des œuvres publiées durant cette période indique clairement que certains écrivains font un usage massif de références à la culture classique. Ce recours intertextuel systématique leur permet d’inscrire le littéraire dans leurs œuvres tout en les rattachant aux genres épique et bucolique. Or, l’intertextualité gréco latine intervient précisément dans une période agitée par des querelles sur l’enseignement des œuvres classiques dans les collèges. Au cœur de cette polémique, une mouvance intellectuelle marquée par les idées de Monseigneur Gaume reproche à la littérature païenne de pervertir la jeunesse et prône un enseignement exclusif du latin chrétien. L’ampleur du débat dans la presse de l’époque est telle que les écrivains – qui ont tous été scolarisés dans des collèges classiques – ne pouvaient en aucun cas l’ignorer. La présente thèse étudie ainsi le dialogue intertextuel mené dans la production littéraire québécoise entre 1850 et 1870. Analysant l’image et la fonction de la culture gréco-latine dans les milieux littéraires québécois durant toute la querelle gaumiste, elle projette un nouvel éclairage sur les textes et met en évidence le savant travail littéraire effectué par leurs auteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En adoptant le nouveau Code civil du Québec, en 1994, le législateur a codifié une obligation commençant à se développer sérieusement en jurisprudence : l’obligation de bonne foi. Plus que le simple antonyme de la mauvaise foi, cette obligation de bonne foi exige maintenant un comportement spécifique de la part des justiciables. Il faut agir selon les exigences de la bonne foi. Celles-ci sont particulièrement importantes en matière contractuelle, puisqu'en plus des articles généraux du tout début du Code civil, le principe de la bonne foi est réitéré dans le chapitre portant sur les contrats. On y prévoit expressément que la bonne foi doit gouverner les relations contractuelles, et ce, à tous les stades de la vie contractuelle. Notre mémoire s'insère dans cette nouvelle tendance contractuelle. Notre but est d'étudier l'impact de la bonne foi lors de la formation et de l'élaboration du contrat. Cette étude implique de définir et d'analyser les fonctions de l'obligation de bonne foi. En matière de formation et d'élaboration du contrat, une telle analyse ne peut se faire sans une étude détaillée de l'obligation de renseignement, composante essentielle de l'obligation de bonne foi à ce stade de la vie contractuelle. C'est l'étude que nous proposons en première partie de ce mémoire. Cette première partie permettra de constater que l’obligation de bonne foi est une obligation positive de comportement. Les tribunaux utilisent cette obligation pour tenter d'intégrer à la vie contractuelle, une dimension morale comportant des devoirs de loyauté, de collaboration et d'information. Au Québec, la bonne foi est surtout utilisée à des fins interprétative, complétive et limitative du contrat. La deuxième partie de ce mémoire se consacre à l'application des principes dégagés en première partie. Elle permet de constater comment les tribunaux ont, jusqu'à présent, utilisé l’obligation de bonne foi lors de la formation et de l'élaboration du contrat, notamment en la juxtaposant aux vices du consentement. Nous tentons de critiquer cette approche jurisprudentielle et de lui proposer une approche alternative, fondée sur une série de recours spécifiquement et uniquement rattachés à l'obligation de bonne foi. Nous proposerons une série de sanctions spécifiques à l'obligation de bonne foi lors de la formation et de l'élaboration du contrat, le tout en accord avec les fondements de la théorie contractuelle.