991 resultados para Modularité massive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évaluation des écosystèmes est l'un des pivots essentiels pour l'élaboration de moyens adaptés permettant de lutter contre la diminution massive de la biodiversité. Pour la première fois, elle a fait l'objet d'une analyse à l'échelle mondiale dans le cadre de l'Evaluation des écosystèmes en début de millénaire (EM). Le rassemblement de plus d’un millier de chercheurs et de plusieurs organismes internationaux durant quatre années ont permis de dessiner la carte nécessaire à toute action efficace. L'article expose les éléments principaux de l'EM : l'évaluation des écosystèmes en tant que tels, mais surtout des services écosystémiques, dans toutes leurs dimensions, en ce que leur évolution affecte le bien-être humain. Il analyse ensuite les quatre points principaux de l'apport de l'EM, des avantages de l'utilisation croissante des services écologiques à sa non viabilité. Des scénarios, modèles et outils sont proposés pour inverser la courbe négative d'appauvrissement de la biodiversité et des services écosystémiques dans un premier bilan des retombées de l'EM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire s’intéresse à la déstabilisation d’un réseau de distribution de stupéfiants. Il est basé sur l’étude d’une enquête policière réalisée dans une grande ville canadienne. L’objectif principal de cette enquête était le démantèlement d’un réseau criminel perçu comme étant hiérarchisé. Différentes stratégies ont été mises en œuvre par les enquêteurs afin de déstabiliser le réseau. Cinq de ces stratégies sont étudiées dans cette recherche. Des analyses de réseaux et l’évaluation de l’évolution des opérations de distribution de stupéfiants démontrent que, parmi les stratégies déstabilisatrices, le retrait sélectif (arrestation) et l’ajout (infiltration) de participants dans le réseau sont les plus efficaces. Les résultats détaillés montrent l’importance de préparer des enquêtes systématiques et réfléchies en vue de déstabiliser un réseau. Bien que les rafles massives de participants soient intéressantes, il est essentiel d’en soulever les limites. Le fait de se concentrer sur des enquêtes planifiées permettra non seulement de répondre aux objectifs de l’enquête en cours, mais également de comprendre et développer des pratiques de déstabilisation à long terme au niveau du marché criminel en général (méta-réseau).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formées lors de l’effondrement gravitationnel d’un nuage de gaz moléculaire, les étoiles naissantes auront différentes masses variant entre 0.08 et environ 100M . La majorité de la population stellaire de la Galaxie est constituée d’étoiles dont la masse est inférieure à environ 0.6 M . Le dernier évènement de formation stellaire dans le voisinage solaire s’est produit dans la bulle locale il y a au plus 100 millions d’années, vraisemblablement provoqué par le passage d’une onde de choc dans le bras local de la Galaxie. C’est ainsi que se formèrent de jeunes associations d’étoiles dont les membres se caractérisent en particulier par une vitesse spatiale et une position commune dans la Galaxie. Les associations jeunes étant peu densément peuplées et relativement proches du Soleil, leurs membres se font plutôt rares et dispersés sur toute la voûte céleste. Jusqu’à présent, surtout les étoiles les plus massives (brillantes) ont été répertoriées. Les étoiles jeunes de faible masse, constituant la majorité de la population, restent pour la plupart à être identifiées. Les étoiles jeunes de faible masse représentent une population clef pour contraindre les modèles évolutifs des étoiles M et des naines brunes. Elles sont également d’excellentes candidates pour chercher des exoplanètes via les techniques d’imagerie directe. Ce mémoire présente une nouvelle méthode utilisant un modèle cinématique enrichi d’une analyse statistique Bayesienne pour identifier des étoiles jeunes de faible masse dans les associations beta Pictoris, Tucana-Horologium et AB Doradus. À partir d’un échantillon de 1080 étoiles K et M, toutes comportant des indicateurs de jeunesse tels l’émission Halpha et une forte luminosité dans les rayons X, leurs propriétés cinématiques (mouvement propre) et photométriques sont analysées pour en extraire 98 candidates hautement probables membres d’une des trois associations. Une confirmation de leur statut comme membre nécessitera en particulier une mesure de leur vitesse radiale (prédit par notre analyse) et une mesure de la largeur équivalente du lithium à 6708 Å pour mieux contraindre leur âge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse par articles. Articles (4) annexés à la thèse en fichiers complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études portant sur l’adéquation entre le niveau de formation des individus et celui requis pour l’emploi occupé se sont peu attardées à la dimension temporelle de cette relation. De plus, peu ont abordé la question chez les immigrants canadiens, et de surcroît chez les travailleurs immigrants sélectionnés du Québec. Une seule étude abordant le sujet sous un angle longitudinal a été recensée et se limite à l’accès des travailleurs qualifiés à un premier emploi correspondant à leur niveau de compétences. Cette thèse cherche à aller au-delà des premières transitions sur le marché du travail et vise à mieux comprendre l’évolution de la relation formation-emploi au fil du temps d’établissement. Plus spécifiquement, l’objectif y est de mieux circonscrire l’évolution de la relation formation-emploi au cours des premières années suivant l’arrivée du migrant, d’en identifier les déterminants, mais également de voir l’impact de cette relation sur d’autres dimensions de la qualité de l’emploi : le statut socioéconomique et le salaire. Afin de mieux comprendre les déterminants de l’occupation d’emplois correspondant à son niveau de compétences et d’emplois pour lesquels l’individu est suréduqué ainsi que leur impact respectif sur le statut d’emploi et le salaire, cette thèse considère l’apport de théories sociologiques et économiques. D’une part, différentes théories s’opposent quant au caractère temporaire ou permanent de la suréducation. Ce faisant, elles soulèvent l’impact potentiel des expériences en emploi passées sur le parcours futur et la nécessité d’une vision longitudinale de l’insertion professionnelle. D’autre part, d’autres approches soulèvent, en plus des déterminants individuels, le rôle du contexte social et institutionnel dans lequel l’individu s’insère. Ces différentes approches trouvent écho dans la perspective empirique du parcours de vie qui permet de considérer l’interrelation entre des facteurs micro, méso et macro sociaux et de se représenter les parcours biographiques au fil du temps. L'Enquête sur les travailleurs sélectionnés (ETS) a rendu possible l'étude des parcours en emploi de cette catégorie d'immigrant sélectionnée en fonction de son potentiel d'insertion à la société québécoise dans la mesure où celle-ci comporte à la fois des données administratives sur la situation prémigratoire des travailleurs immigrants, de même que de l'information datée sur chacun des emplois occupés après la migration. L’analyse a été effectuée en trois temps soit : une description du lien entre le niveau de formation et l’emploi, l’étude des déterminants de la relation formation-emploi et finalement, l’étude des salaires et effet de la relation formation-emploi sur ceux-ci. Chacun de ces trois volets est présenté sous forme d’articles soumis pour publication. Les résultats montrent que la proportion d’individus occupant des emplois correspondant à leur niveau de compétences augmente avec le temps passé dans la société d’accueil. Cependant, la suréducation demeure un phénomène présent chez la catégorie des travailleurs immigrants sélectionnés. À ce titre, les premières expériences en emploi sont déterminantes dans la mesure où elles ont un impact non seulement sur l’évolution de la relation formation-emploi, mais également sur les salaires et les statuts des emplois décrochés par les nouveaux arrivants. La grille de sélection, élément central du processus par lequel un candidat peut devenir immigrant au Québec, à travers les attributs des individus qu’elle retient, contribue aussi à façonner les parcours en emploi. La région de provenance des immigrants distingue également les immigrants entre eux, toutes choses égales par ailleurs. La majorité des groupes sont désavantagés lorsqu’ils sont comparés à leurs compatriotes de l’Europe de l’Ouest et des États-Unis, et ce désavantage perdure au fil des années. Cette thèse a démontré que l’insertion professionnelle et la relation formation-emploi sont des sujets se devant d’être abordés sous un angle longitudinal pour bien saisir la complexité des processus à l’œuvre. Au niveau social, les analyses auront permis de montrer l’importance de se pencher sur les services offerts aux immigrants pour les aider dans leur insertion professionnelle, surtout dans un contexte où des départs à la retraite massifs et des pénuries de main-d'œuvre qualifiée sont à prévoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recrudescence des conflits internes dans le contexte post-guerre froide a permis de propulser à l’avant-plan la préoccupation pour les individus. Alors que la paix et la sécurité internationales ont historiquement constitué les piliers du système institutionnel international, une porte s’ouvrait pour rendre effectif un régime de protection des droits de l’homme par-delà les frontières. Pour les humanistes, l’intervention humanitaire représentait un mal nécessaire pour pallier aux souffrances humaines souvent causées par des divergences ethniques et religieuses. Pourtant, cette pratique est encore souvent perçue comme une forme de néo-colonialisme et entre en contradiction avec les plus hautes normes régissant les relations internationales, soit les principes de souveraineté des États et de non-intervention. La problématique du présent mémoire s’inscrit précisément dans cette polémique entre la préséance des droits de l’État et la prédilection pour les droits humains universels, deux fins antinomiques que la Commission internationales pour l’intervention et la souveraineté des États (CIISE) a tenté de concilier en élaborant son concept de responsabilité de protéger. Notre mémoire s’inscrit dans le champ de la science politique en études internationales mais s’articule surtout autour des notions et enjeux propres à la philosophie politique, plus précisément à l’éthique des relations internationales. Le travail se veut une réflexion critique et théorique des conclusions du rapport La responsabilité de protéger, particulièrement en ce qui concerne le critère de la juste cause et, dans une moindre mesure, celui d’autorité appropriée. Notre lecture des conditions de la CIISE à la justification morale du déclenchement d’une intervention humanitaire – critères issues de la doctrine de la guerre juste relativement au jus ad bellum – révèle une position mitoyenne entre une conception progressiste cosmopolitique et une vision conservatrice d’un ordre international composé d’États souverains. D’une part, la commission se dissocie du droit international en faisant valoir un devoir éthique d’outrepasser les frontières dans le but de mettre un terme aux violations massives des droits de l’homme et, d’autre part, elle craint les ingérences à outrance, comme en font foi l’établissement d’un seuil de la juste cause relativement élevé et la désignation d’une autorité multilatérale à titre de légitimateur de l’intervention. Ce travail dialectique vise premièrement à présenter et situer les recommandations de la CIISE dans la tradition de la guerre juste. Ensuite, il s’agit de relever les prémisses philosophiques tacites dans le rapport de la CIISE qui sous-tendent le choix de préserver une règle de non-intervention ferme de laquelle la dérogation n’est exigée qu’en des circonstances exceptionnelles. Nous identifions trois arguments allant en ce sens : la reconnaissance du relativisme moral et culturel; la nécessité de respecter l’autonomie et l’indépendance des communautés politiques en raison d’une conception communautarienne de la légitimité de l’État, des réquisits de la tolérance et des avantages d’une responsabilité assignée; enfin, l’appréhension d’un bouleversement de l’ordre international sur la base de postulats du réalisme classique. Pour finir, nous nuançons chacune de ces thèses en souscrivant à un mode de raisonnement cosmopolitique et conséquentialiste. Notre adhésion au discours individualiste normatif nous amène à inclure dans la juste cause de la CIISE les violations systématiques des droits individuels fondamentaux et à cautionner l’intervention conduite par une coalition ou un État individuel, pourvu qu’elle produise les effets bénéfiques désirés en termes humanitaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les R-loops générés durant la transcription sont impliqués dans de nombreuse fonctions incluant la réplication, la recombinaison et l’expression génique tant chez les procaryotes que chez les eucaryotes. Plusieurs études ont montré qu’un excès de supertours négatifs et des séquences riches en bases G induisent la formation de R-loops. Jusqu’à maintenant, nos résultats nous ont permis d’établir un lien direct entre les topoisomérases, le niveau de surenroulement et la formation de R-loops. Cependant, le rôle physiologique des R-loops est encore largement inconnu. Dans le premier article, une étude détaillée du double mutant topA rnhA a montré qu’une déplétion de RNase HI induit une réponse cellulaire qui empêche la gyrase d’introduire des supertours. Il s’agit ici, de la plus forte évidence supportant les rôles majeurs de la RNase HI dans la régulation du surenroulement de l’ADN. Nos résultats ont également montré que les R-loops pouvaient inhiber l’expression génique. Cependant, les mécanismes exacts sont encore mal connus. L’accumulation d’ARNs courts au détriment d’ARNs pleine longueur peut être causée soit par des blocages durant l’élongation de la transcription soit par la dégradation des ARNs pleine longueur. Dans le deuxième article, nous montrons que l’hypersurenroulement négatif peut mener à la formation de R-loops non-spécifiques (indépendants de la séquence nucléotidique). La présence de ces derniers, engendre une dégradation massive des ARNs et ultimement à la formation de protéines tronquées. En conclusion, ces études montrent l’évidence d’un lien étroit entre la RNase HI, la formation des R-loops, la topologie de l’ADN et l’expression génique. De plus, elles attestent de la présence d’un nouvel inhibiteur de gyrase ou d’un mécanisme encore inconnu capable de réguler son activité. Cette surprenante découverte est élémentaire sachant que de nombreux antibiotiques ciblent la gyrase. Finalement, ces études pourront servir également de base à des recherches similaires chez les cellules eucaryotes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à la rencontre d’un antigène (Ag) présenté à la surface des cellules présentatrice de l’Ag (CPA), les lymphocytes T naïfs, ayant un récepteur des cellules T (RCT) spécifique de l’Ag, vont proliférer et se différencier en LT effecteurs (1). Suite à l’élimination de l’Ag la majorité des LTe vont mourir par apoptose alors que les restants vont se différencier en LT mémoire (LTm) protégeant l’organisme à long terme. Les mécanismes qui permettent la différenciation des LTe en LTm sont encore inconnus. Pour comprendre comment les LTm CD8+ sont générés à partir des LTe, nous avons émis l’hypothèse que la densité de l’Ag présenté par les CPA peut avoir un impact sur la sélection des LT CD8+ répondant l’Ag à se différencier en LTm. De manière intéressante, nos résultats montrent qu’une immunisation avec des cellules dendritiques (DCs) exprimant un haut niveau de complexe CMH/peptide à sa surface permet le développement de LTm. À l’inverse, le développement des LTm est fortement réduit (10-20X) lorsque les souris sont immunisées avec des DCs exprimant un niveau faible de complexes CMH/peptide à leur surface. De plus, la quantité d’Ag n’a aucune influence ni sur l’expansion des LT CD8+ ni sur l’acquisition de leurs fonctions effectrices, mais affecte de manière critique la génération des LTm. Nos résultats suggèrent que le nombre de RCT engagé lors de la reconnaissance de l’Ag est important pour la formation des LTm. Pour cela nous avons observé par vidéo-microscopie le temps d’interaction entre des LTn et des DCs. Nos résultats montrent que le temps et la qualité de l’interaction sont dépendants de la densité d’Ag présenté par les DCs. Effectivement, nous observons une diminution dans le pourcentage de LT faisant une interaction prolongée avec les DCs quand le niveau d’Ag est faible. De plus, nous observons des variations de l’expression des facteurs de transcription clefs impliqués dans la différenciation des LTm tels qu’Eomes, Bcl-6 et Blimp-1. Par ailleurs, la densité d’Ag fait varier l’expression du Neuron-derived orphan nuclear receptor 1 (Nor-1). Nor-1 est impliqué dans la conversion de Bcl-2 en molécule pro-apoptotique et contribue à la mort par apoptose des LTe pendant la phase de contraction. Notre modèle propose que la densité de l’épitope contrôle la génération des CD8+ LTm. Une meilleure compréhension des mécanismes impliqués dans la génération des LTm permettra le développement de meilleures stratégies pour la génération de vaccin. Dans un second temps, nous avons évalué le rôle du signal RCT dans l’homéostasie des LTm. Pour ce faire, nous avons utilisé un modèle de souris transgénique pour le RCT dont son expression peut être modulée par un traitement à la tétracycline. Ce système nous a permis d’abolir l’expression du RCT à la surface des LTm. De manière intéressante, en absence de RCT exprimé, les LTm CD8+ peuvent survivre à long terme dans l’organisme et rester fonctionnels. De plus, une sous population des LTm CD4+ a la capacité de survivre sans RCT exprimé dans un hôte lymphopénique alors que l’autre sous population nécessite l’expression du RCT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur de chimiokine CXCR7 a été récemment identifié comme liant la chimiokine SDF-1, anciennement considérée comme ligand exclusif du récepteur CXCR4. Ces deux récepteurs sont exprimés majoritairement dans les mêmes types cellulaires et, ainsi, la découverte de CXCR7 incite à réévaluer les effets respectifs de SDF-1 sur CXCR4. Étant donné son rôle dans le cancer, CXCR4 est une cible de choix pour le développement de molécules thérapeutiques. Également, CXCR7 semble être impliqué dans la croissance tumorale. AMD3100, un antagoniste «sélectif» pour CXCR4, est maintenant commercialisé. Cet antagoniste a été identifié comme liant lui aussi CXCR7. De plus, sur CXCR7, l’AMD3100 agit comme agoniste puisqu’il induit le recrutement de la β-arrestine, à l’opposé de son effet sur. En revanche, AMD3100 n’induit pas le recrutement de la β-arrestine à CXCR4. Basé sur ces résultats, il est nécessaire de revoir la sélectivité d’autres antagonistes synthétiques de CXCR4. À l’aide de la technique de BRET (Résonance d’un transfert d’énergie par bioluminescence), nos résultats montrent que le Tc14012, un autre antagoniste synthétique de CXCR4, et structurellement distinct de l’AMD3100, interagit avec CXCR7. Contrairement à CXCR4, les deux antagonistes de CXCR4 agissent comme agonistes sur CXCR7 en induisant le recrutement de la β-arrestine. Nos résultats suggèrent que l’organisation spatiale du corps du récepteur serait responsable de cet effet opposé. En conclusion, AMD3100 et Tc14012 ne sont pas sélectifs pour CXCR4, puisqu’ils interagissent avec CXCR7. Lors du développement de nouvelles molécules synthétiques ciblant CXCR4, il serait alors nécessaire d’en évaluer leur sélectivité, et leurs effets en les testant aussi sur CXCR7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La séquence culturelle régionale de l’Archaïque supérieur et terminal de la vallée de l’Outaouais n’est pas complétée, mais les variations stylistiques, technologiques et fonctionnelles des artéfacts sur le plan régional et local facilitent le découpage culturel. La reconstruction de la chaîne opératoire des haches, des herminettes et des gouges en pierre polie des sites Muldoon et Lamoureux, deux sites du sud-est ontarien, pourrait permettre de déceler une tradition technologique régionale à cheval entre l’Archaïque laurentien, l’Archaïque post-laurentien et d’autres courants des Grands Lacs. L’analyse des haches, des herminettes et des gouges des sites Muldoon et Lamoureux démontre l’utilisation massive de l’amphibolite. La moitié distale de ces outils est surtout polie et finement abrasée et la moitié proximale souvent éclatée, mais parfois abrasée. Ces éléments technologiques et l’industrie de pierre taillée démontrent des ressemblances et des différences avec les sites laurentiens de la région, et certains sites post-laurentiens du Québec et de l’Ontario méridional. Le matériel en pierre polie des sites Muldoon et Lamoureux démontre des liens technologiques vers l’Ouest tout en gardant un contact avec la sphère d’interaction postlaurentienne. La vallée de l’Outaouais semble alors prendre une place indépendante dans l’Archaïque supérieur, certaines continuités technologiques s’observent entre l’Archaïque laurentien et l’Archaïque post-laurentien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’injection de cellules immunologiquement compétentes à un hôte histo-incompatible amène une réaction qui peut se traduire par la maladie du greffon-contre-l’hôte (GVHD). La GVHD demeure une barrière importante à une utilisation plus répandue de la greffe allogénique de cellules hématopoïétiques (AHCT), pourtant un traitement efficace pour traiter de nombreuses maladies. Une meilleure compréhension des mécanismes qui sous-tendent cette pathologie pourrait en faciliter le traitement et la prévention. L’Interféron-gamma (IFN-γ) et le Transforming Growth Factor-béta (TGF-β) sont deux cytokines maîtresses de l’immunité impliquées dans la fonction et l’homéostasie des cellules greffées. Nous démontrons chez la souris que l’IFN-γ limite la reconstitution lympho-hématopoïétique de façon dose-dépendante en mobilisant des mécanismes d’apoptose et en inhibant la prolifération cellulaire. Le TGF-β est quant à lui généralement connu comme un immunosuppresseur qui contrôle l’immunité en utilisant plusieurs voies de signalisation. Le rôle relatif de ces voies en AHCT est inconnu. Nous avons étudié une de ces voies en greffant des cellules provenant de donneurs déficients pour le gène SMAD3 (SMAD3-KO), un médiateur central de la voie canonique du TGF-β, à des souris histo-incompatibles. Bien que l’absence de SMAD3 ne cause aucune maladie chez nos souris donneuses, l’injection de cellules SMAD3-KO amène une GVHD du colon sévère chez le receveur. Cette atteinte est caractérisée par une différenciation Th1 et une infiltration massive de granulocytes témoignant d’un rôle central de SMAD3 dans la physiologie des lymphocytes T CD4 et des cellules myéloïdes. Nous avons focalisé ensuite nos efforts sur le rôle de SMAD3 chez les lymphocytes T CD4 en sachant que SMAD3 était actif chez les lymphocytes T CD4 tolérants. Nous avons découvert que SMAD3 était rapidement inactivé après une activation des cellules T, suggérant que l’inactivation de SMAD3 était fonctionnellement importante pour briser l’état de tolérance. Des études de micro-puces d’ADNc nous ont montré que SMAD3 contrôlait en effet l’expression de nombreux transcrits de gènes connus comme étant reliés à la tolérance et/ou à des processus biologiques dont les rôles dans le maintien de la tolérance sont plausibles.