665 resultados para Environnement réel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que le rôle des femmes dans le recrutement de prostituées ne soit pas un phénomène nouveau, peu d’études se sont intéressées au sujet. L’intérêt de cette recherche repose d’ailleurs sur le manque de connaissances de cette problématique qui semble pourtant bien présente dans la société québécoise contemporaine. À l’aide d’entrevues auprès de 15 intervenants du milieu de la police, des organisations communautaires et des centres jeunesse, nous avons recensé de l’information sur 26 cas de femmes recruteuses. L’analyse de différents critères nous a permis de les classer en trois catégories, soit les partenaires, les entremetteuses et les tenancières. Contrairement aux entremetteuses et aux tenancières, les partenaires entretiennent une relation avec un homme complice. Les partenaires, tout comme les tenancières, ont toutes un passé dans la prostitution, alors que certaines entremetteuses n’ont jamais participé à l’industrie du sexe auparavant. La partenaire joue un rôle dans la gestion et le contrôle des victimes, ce qui n’est généralement pas le cas chez l’entremetteuse. La tenancière détient plusieurs responsabilités concernant la gestion d’au moins un établissement érotique. La majorité des partenaires utilise aussi la violence et les menaces pour contrôler leurs victimes, alors que les tenancières semblent user de techniques plus subtiles pour arriver à leurs fins. Bien que plusieurs motivations puissent pousser les recruteuses à chercher de nouvelles recrues, l’obtention de bénéfices monétaires ou matériels est la seule exprimée pour les trois profils. À quelques exceptions près, chacun des trois profils s’exécute selon un processus de recrutement préétabli. Pour la partenaire, il s’agit de cibler une fille vulnérable, de lui offrir un environnement sécuritaire où demeurer, puis de faire miroiter les éléments positifs à être en relation avec elle. L’étape cruciale est le moment où elle demande une contribution monétaire à la victime, puis l’initie à la prostitution. Le processus de recrutement des entremetteuses est semblable à celui des partenaires à l’exception de l’étape cruciale qui sera de mettre la recrue en contact avec un proxénète masculin ou des membres de gang. Le rôle de l’entremetteuse se termine généralement à ce stade. Pour sa part, la tenancière trouve généralement ses recrues au moyen d’annonces dans les journaux ou sur le Web et par ses contacts avec le crime organisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche des facteurs de longévité gagne en intérêt dans le contexte actuel du vieillissement de la population. De la littérature portant sur la longévité et la mortalité aux grands âges, un constat émerge : bien que les déterminants associés à la survie humaine soient multiples, l'environnement familial aurait un rôle déterminant sur la mortalité et sur l'atteinte des âges avancés. Dès lors, l'objectif de cette thèse est d'évaluer les déterminants de la survie exceptionnelle et d'examiner le rôle des aspects familiaux, en début de vie et à l'âge adulte, dans les différentiels de durée de vie. Plus spécifiquement, elle vise à : (1) examiner la similarité des âges au décès entre frères, soeurs et conjoints afin d'apprécier l'ampleur de la composante familiale de la longévité; (2) explorer, d'un point de vue intrafamilial, les conséquences à long terme sur la survie des variables non partagées issues de la petite enfance tels l'âge maternel à la reproduction, le rang de naissance et la saison de naissance; et (3) s'interroger sur le rôle protecteur ou délétère de l’environnement et du milieu familial d'origine dans l’enfance sur l'atteinte des grands âges et dans quelle mesure le statut socioéconomique parvient à médiatiser la relation. Cette analyse s'appuie sur le jumelage des recensements canadiens et des actes de décès de l’état civil québécois et emploie des données québécoises du 20e siècle issues de deux échantillons distincts : un échantillon aléatoire représentatif de la population provenant du recensement canadien de 1901 ainsi qu’un échantillon de frères et soeurs de centenaires québécois appartenant à la même cohorte. Les résultats, présentés sous forme d'articles scientifiques, ont montré, en outre, que les frères et soeurs de centenaires vivent plus longtemps que les individus appartenant aux mêmes cohortes de naissance, reflétant la contribution d'une robustesse commune, mais également celle de l'environnement partagé durant la petite enfance. Ces analyses ont également témoigné d'un avantage de survie des conjoints des centenaires, soulignant l'importance d'un même environnement à l'âge adulte (1er article). De plus, nos travaux ont mis de l'avant la contribution aux inégalités de longévité des variables biodémographiques issues de l'environnement non partagé telles que l'âge maternel à la reproduction, le rang de naissance et la saison de naissance, qui agissent et interagissent entre elles pour créer des vulnérabilités et influer sur l'atteinte des âges exceptionnels (2e article). Enfin, une approche longitudinale a permis de souligner la contribution du milieu social d'origine sur la longévité, alors que les individus issus d’un milieu socioéconomique défavorisé pour l'époque (milieu urbain, père ouvrier) vivent moins longtemps que ceux ayant vécu dans un environnement socioéconomique favorable (milieu rural, fermier), résultat d'une potentielle accumulation des avantages liée à la reproduction du statut social ou d'une programmation précoce des trajectoires de santé. L’influence est toutefois moindre pour les femmes et pour les frères de centenaires et s'exprime, dans ce cas, en partie par l'effet de la profession à l'âge adulte (3e article).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option administration des services infirmiers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prenant comme point de départ le rapport paradoxal qui existe entre le témoignage et la littérature (l’un étant considéré comme véridique et l’autre, comme fictive) le présent mémoire s’intéresse à l’utilisation de la fiction dans les récits autobiographiques et testimoniaux de Jorge Semprun, avec L’Écriture ou la vie (1994), et de Régine Robin, avec L’Immense fatigue des pierres (1996). L’étude de ces textes tente de vérifier l’hypothèse selon laquelle, en faisant de leur témoignage une œuvre littéraire qui assume sa part de fiction, les deux auteurs arriveraient à offrir un témoignage plus juste de leur expérience de la Shoah. Le premier chapitre constitue un panorama critique et historique des deux axes théoriques principaux sur lesquels s’appuie ce travail, d’une part les études sur l’écriture testimoniale et sur la littérature de la Shoah (Derrida, Bornand, Prstojevic) et d’autre part les travaux sur l’autobiographie (Lejeune, Robin, Viart et Vercier). Il s’interroge sur les liens qui les unissent tout en tentant de positionner Robin et Semprun à travers ce champ de pratiques littéraires. Les deuxièmes et troisièmes chapitres s’intéressent ensuite aux différents effets de fiction et de réel qui se trouvent dans les deux œuvres du corpus et analysent, dans un premier temps, la mise en scène d’un pacte de vérité ambiguë passant par la représentation littéraire de la figure auctoriale et de l’acte d’écriture et, dans un deuxième temps, la représentation littéraire du réel en étudiant les nombreuses références intertextuelles, la présence du topos de la visite au camp de concentration, ainsi que l’utilisation particulière de l’archive par Semprun et Robin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mémoire immunitaire permet à l’organisme de se souvenir de tous les agents pathogènes rencontrés afin de pouvoir monter une réponse immunitaire plus rapide et plus efficace en cas de réinfection. Après la phase de contraction de la réponse primaire, les lymphocytes T CD8 mémoires survivent grâce à la présence de cytokines telle que l’interleukine 15 (IL-15). Ces cellules permettent aussi au système immunitaire de contrôler les virus latents n’ayant pas été totalement éliminés de l’hôte. Les situations de stress chronique affectent le système immunitaire provoquant la réactivation des virus latents. Des titres viraux élevés de virus de la famille Herspeviridea ont été observés chez les astronautes à leur retour de mission, suggérant que les hormones libérées en situation de stress auraient un impact négatif sur les lymphocytes T CD8+ mémoires. Un modèle de stress chronique in vitro chez la souris a été élaboré en ajoutant de la corticostérone à des lymphocytes T CD8+ mémoires. Il a ainsi été démontré que l’hormone de stress avait un effet pro-apoptotique sur ces cellules et que cet effet était partiellement inhibé par l’IL-15. Des cibles moléculaires ont aussi été identifiées afin de suivre la fonction immunitaire mémoire lors des vols spatiaux à l’aide du cytomètre en flux Microflow1, une nouvelle plateforme portative de diagnostic biomédical. Les résultats des tests en laboratoire puis dans la Station Spatiale Internationale (SSI) démontrent qu’il sera possible de suivre la fonction immunitaire mémoire et les marqueurs de stress en temps réel lors des vols spatiaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lorsque les ouragans entrent en contact avec l'environnement bâti et naturel, les autorités publiques n'ont parfois d'autre choix que de déclarer l'évacuation obligatoire de la population située en zone à risque. En raison de l'imprévisibilité du déroulement d'une catastrophe et des comportements humains, les opérations d'évacuation sont confrontées à une incertitude significative. Les expériences passées ont montré que les technologies de l'information et des communications (TIC) ont le potentiel d'améliorer l'état de l'art en gestion des évacuations. Malgré cette reconnaissance, les recherches empiriques sur ce sujet sont à ce jour limitées. La présente étude de cas de la ville de New York explore comment l'intégration des TIC dans la planification opérationnelle des organisations ayant des responsabilités en matière de transport peut améliorer leurs réponses aux événements et influencer le succès global du système de gestion des catastrophes. L'analyse est basée sur les informations recueillies au moyen d'entretiens semi-dirigés avec les organisations de transport et de gestion des catastrophes de la ville de New York ainsi qu’avec des experts du milieu universitaire. Les résultats mettent en lumière le potentiel des TIC pour la prise de décision en interne. Même s’il est largement reconnu que les TIC sont des moyens efficaces d'échanger de l'information en interne et entre les organisations, ces usages sont confrontés à certaines contraintes technologique, organisationnelle, structurelle et systémique. Cette observation a permis d'identifier les contraintes vécues dans les pratiques usuelles de gestion des systèmes urbains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La densification de la ville est l’un des principaux objectifs de l’action publique pour bâtir des milieux de vie de qualité. Mais la densité est un concept polysémique et relatif : on constate un écart entre la densité telle qu’elle est préconisée en aménagement et celle vécue par les populations. Parallèlement, on observe l’exode des jeunes familles montréalaises vers les territoires périurbains de faible densité. Enfin, la littérature souligne une relation positive entre densité, mixité et pratique de la marche. Cette recherche explore les perceptions des parents de jeunes enfants à l’égard de leur environnement bâti, en particulier de sa densité, et en identifie les facteurs qui influencent positivement leur pratique de la marche. Après avoir caractérisé les formes urbaines de deux quartiers montréalais aux densités différentes, nous avons interrogé des parents de jeunes enfants sur leur expérience lors de 16 entrevues semi-dirigées et d’un groupe de discussion. Puis nous avons étudié la relation entre les variables personnelles des participants, leurs perceptions de la densité et leurs pratiques de la marche. Nos résultats mettent en évidence la quête d’un équilibre entre les avantages et inconvénients de la densité, dont les principales variables sont les formes urbaines, les services de proximité et la présence d’animation, la végétation étant un paramètre incontournable pour tous les parents. Caractéristiques clés d’une ville intense, ces paramètres corroborent la littérature existante à ce sujet, en mettant en évidence leur importance dans la création de milieux de vie plus denses pour les jeunes familles et leur influence positive sur la marche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse est une étude ethnographique qui examine le savoir en tant que pratique située au Ladakh, dans l’Himalaya indien. Elle analyse les implications socioculturelles des deux moteurs de changement en jeu au Ladakh: l’un est d'origine socio-économique et lié à la production du Ladakh en tant que zone frontalière, tandis que l’autre est de nature environnementale et entrainé par les changements climatiques. Alors que le Ladakh est demeuré hors de la portée de l’État bureaucratique pendant l’administration coloniale britannique, la région s’est trouvée reconfigurée en zone frontalière stratégique après l’indépendance de l’Inde des suites des guerres successives avec le Pakistan et la Chine. L’Indépendance a mené à la partition de l’Inde et du Pakistan en 1947; cette thèse examine la portée à long terme des évènements traumatisants de la partition tels qu’ils se sont déroulés au Ladakh et comment les Ladakhis établissent des liens entre ces évènements et les changements climatiques. L’État indien s’est produit dans la région à travers une volonté de dominer les montagnes, principalement par le développement d’infrastructures et par l’intégration du savoir local des Ladakhis dans l’appareil militaire. La militarisation a restructuré l'économie du Ladakh, redéfini la structure des ménages, contribué à l’exode rural, déplacé la centralité des activités agropastorales et, tel que la dissertation le soutient, altéré de manière significative la connexion de la population locale avec l'environnement. La rationalisation croissante de la perspective sur l’environnement aujourd'hui contribue à la fragmentation des liens qui unissent les domaines naturels et humains dans la cosmologie locale de même qu’à l'abandon des pratiques rituelles connexes. Parallèlement, la région est touchée par des effets distincts des changements climatiques, en particulier la récession des glaciers. La thèse juxtapose l'expérience subjective de ces vastes changements dans la vie quotidienne des villageois de la Vallée de Sham avec les faits historiques environnementaux, démontrant ainsi que les événements historiques locaux influent sur les perceptions des changements environnementaux. L'analyse démontre qu’un phénomène objectif tel que la récession des glaciers est interprété à travers des réalités locales. Plus précisément, selon la conception du monde locale, un glacier en retrait est une figure rhétorique d’une transformation de la condition humaine. Comme le fait valoir la dissertation, l’interprétation culturelle ne constitue pas un obstacle à l'objectivité de l'histoire naturelle de la cosmologie locale. L’interprétation culturelle et l'expérience empirique s’avèrent par ailleurs essentielles à la vitalité des connaissances locales sur l'environnement et à la performance des pratiques associées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Fibrose kystique (FK), causée par des mutations du canal Cl- CFTR, entraîne une dysfonction de la sécrétion de Cl- et un débalancement dans la sécrétion des fluides. La diminution de la clairance mucociliaire qui s’en suit occasionne une accumulation du mucus. Cet environnement est alors favorable à l’installation d’infections et d’inflammation chroniques, responsables de lésions au niveau de l’épithélium respiratoire. Le vieillissement de la population FK, suite à la prise en charge plus appropriée de la maladie, est accompagné par l’émergence de pathologies associées, telles que le diabète. Celui-ci, ainsi que plusieurs autres facteurs comme l’infection à Pseudomonas aeruginosa, contribuent au déclin progressif de la fonction pulmonaire, principale cause de mortalité et de morbidité des patients FK. Le maintien de la fonction pulmonaire est dépendant notamment du transport ionique et liquidien régulant la clairance mucociliaire ainsi que de la réparation épithéliale nécessaire à la génération d’un épithélium fonctionnel en réponse aux agressions. Nous avons donc évalué l’impact de l’hyperglycémie et des exoproduits de P. aeruginosa sur ces deux mécanismes. Nos résultats ont tout d’abord montré qu’un niveau de glucose élevé diminue les courants Cl- CFTR et potassique et altère la réparation de l’épithélium bronchique FK et non FK. Nous avons aussi observé que l’hyperglycémie limite l’impact bénéfique de la correction de CFTR sur la réparation épithéliale. Dans un second temps, nous avons évalué l’impact de l’infection à Pseudomonas aeruginosa sur le CFTR, qui tient un rôle important dans la fonctionnalité de l’épithélium des voies aériennes non-FK. Nous avons noté que l’expression du CFTR ainsi que sa fonction sont réduites par l’exposition aux produits bactériens dans les cellules non-FK. De plus, ces exoproduits compromettent la maturation du CFTR muté par les correcteurs ainsi que leur bénéfice sur la réparation de l’épithélium FK. Finalement, nous avons testé différentes combinaisons de composés correcteurs et potentiateurs de CFTR afin de déterminer quelle stratégie serait la plus efficace afin de favoriser la réparation épithéliale bronchique FK malgré la présence d’infection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.