976 resultados para Cinéma des premiers temps


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but du présent projet de thèse est d’étudier le lien entre les habitudes à l’endroit des technologies de l’information et de la communication (TIC) et la motivation à apprendre. Bien que l’utilisation de l’ordinateur en contexte scolaire ait été étudiée en profondeur au cours des dernières années, la majorité des études présentent la même perspective : elles examinent l’effet de l’utilisation des technologies à l’école sur le rendement et la motivation scolaire des élèves. Cependant, on connaît mal l’effet de l’utilisation des technologies à des fins personnelles sur le vécu scolaire. Il apparait que les élèves n’ont pas tous les mêmes opportunités en ce qui a trait à l’utilisation des TIC et n’acquièrent donc pas tous les mêmes compétences dans ce domaine. Quelques recherches se sont intéressées aux effets de l’ordinateur (sa présence et son utilisation à la maison) sur le rendement à l’école. Bien qu’en majorité, les auteurs s’entendent sur les bénéfices que pourrait générer l’ordinateur, ils restent prudents sur les rapports de cause à effet (Beltran, Das et Fairlie, 2008; OCDE, 2006). Nous avons voulu aborder la question différemment : déterminer les possibles liens entre les habitudes d’utilisation de l’ordinateur à des fins personnelles et la motivation à apprendre à l’école. À cet égard, la motivation pour les sciences a été retenue puisque cette matière scolaire fait souvent appel à des compétences associées à l’utilisation des TIC. Pour répondre à nos objectifs, 331 élèves du cours ordinaire de sciences et technologie au premier cycle du secondaire ont remplis un questionnaire autorapporté, composé de sept échelles motivationnelles et d’un questionnaire lié à l’utilisation des TIC. Nous avons d’abord dégagé des profils d’utilisateurs à partir des différentes utilisations de l’ordinateur. Ensuite, nous avons examiné ces profils en lien avec leurs caractéristiques motivationnelles (le sentiment de compétence, l’anxiété, l’intérêt et les buts d’accomplissement) et l’engagement pour le cours de sciences. Finalement, nous avons déterminé la valeur prédictive de l’utilisation de l’ordinateur sur les variables motivationnelles retenues. Nos résultats montrent que l’utilisation personnelle des TIC ne se fait pas nécessairement au détriment de l’école. Nous avons trouvé que les élèves qui utilisent davantage les TIC dans leurs temps libres, et ce, avec des utilisations diversifiées, ont des caractéristiques motivationnelles plus positives. Toutefois, nous constatons que le type d’usage est lié à un effet médiateur positif ou négatif sur la motivation à apprendre. Les élèves qui limitent leurs utilisations de l’ordinateur à la communication et aux jeux ont des caractéristiques motivationnelles plus négatives que ceux avec des utilisations variées. Les usages centrés sur la communication semblent être ceux qui sont le plus susceptibles d’être liés négativement à la motivation à apprendre alors que ceux orientés vers les usages à caractère intellectuel s’avèrent plus positifs. Les résultats suggèrent que la clé ne réside pas dans le temps d'utilisation mais plutôt dans l'utilisation judicieuse de ce temps. En favorisant des usages à caractère intellectuel, tout en laissant des temps libres aux jeunes, nous augmentons leurs chances de développer de bonnes habitudes technologiques qui seront essentielles dans la société de demain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Projet de recherche réalisé en collaboration avec la section Biologie/ADN du Laboratoire de sciences judiciaires et de médecine légale (LSJML) de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le seul vrai livre, pour Proust, est la traduction des impressions perdues dont la trace subsiste dans notre mémoire sensible. Les personnages entrent dans le texte de la Recherche en frappant la sensibilité du héros. Or, « toujours déjà là, » la grand-mère, comme la mère, relève d'une réalité qui ne s'est jamais imprimée, une réalité antérieure à la conscience du narrateur et de ce fait, antérieure au texte. Néanmoins, la grand-mère est une mère qui vieillit et qui meurt. Alors, elle apparaît au narrateur, suivant ainsi le chemin inverse de l'altérité. De présence immédiate pour le héros, il lui faudra devenir autre, une vieille femme étrangère, indéfinie dans son geste vers la mort, afin que le texte lui restitue une première impression. C'est précisément dans cette distance à parcourir, cet itinéraire entre l'immédiateté du départ et la première impression, que la spécificité du personnage de la grand-mère touche à ce que Proust qualifierait lui-même de « névralgie » de son texte. La réalité maternelle, pour devenir objet du style littéraire, doit se plier au trait de l'écrivain. Or, le personnage de mère, telle qu'il est élaboré dans la Recherche, résiste à ce « fléchissement ». Le personnage de grand-mère permet à Proust d'exprimer la réalité de la mère qui se dégrade et qui meurt, une mère que la main du fils devenant écrivain rend malléable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La recherche dans le domaine de la mémoire sémantique a permis de documenter l’effet de concrétude (avantage pour les mots concrets relativement aux mots abstraits), et plus récemment, l’effet de concrétude inverse (avantage pour les mots abstraits relativement aux mots concrets). Ces effets, observés chez le sujet sain et dans différentes populations cliniques en neurologie, ont suscité de nombreuses interprétations théoriques, autant sur le plan cognitif que neuroanatomique. En effet, cette double dissociation entre les deux types de concepts suggère que leur traitement doit reposer au moins en partie sur des processus mentaux et neuroanatomiques distincts. Néanmoins, les origines de ces différences restent largement débattues et sont caractérisées par une absence notable de consensus. L’objectif principal de la présente thèse est d’explorer les substrats cérébraux sous-tendant la compréhension des concepts concrets et abstraits. Dans un premier temps, un article de revue de la littérature dresse un état des lieux des connaissances actuelles portant sur le traitement sémantique des mots concrets et abstraits ainsi que sur leurs fondements cérébraux. Cet article met une emphase particulière sur les différences inter-hémisphériques dans le traitement des mots concrets et abstraits (Article 1). Dans un deuxième temps, une étude expérimentale de la compréhension des mots concrets et abstraits a été réalisée auprès de populations cliniques rares, des patients ayant subi soit i) une résection unilatérale de la partie antérieure du lobe temporal (temporo-polaire), soit ii) une résection unilatérale de la région hippocampique (temporale interne) (Article 2). Le premier article fait ressortir la grande hétérogénéité des résultats dans le domaine, et suggère que les différences observées dans le traitement des mots concrets et abstraits peuvent difficilement être interprétées seulement en termes de différences inter-hémisphériques. Les résultats du second article indiquent qu’une lésion de la région temporale antérieure gauche ou droite entraîne une atteinte plus marquée des concepts concrets comparativement aux abstraits, alors qu’une lésion unilatérale des régions temporales internes affecte de manière équivalente le traitement sémantique des deux types de concepts. Les implications théoriques et cliniques de ces résultats sont discutées, ainsi que les limites et perspectives futures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La transplantation de sang de cordon ombilical (TSCO) est utilisée pour traiter les enfants atteints de maladies hématologiques en l’absence de donneurs apparentés compatibles. Elle est associée avec des risques plus élevés d’échec de greffe et d’infections opportunistes dans les premiers mois qui suivent la transplantation en comparaison avec une greffe de moelle osseuse. Par contre, la TSCO comporte un risque plus faible de maladie du greffon contre l’hôte et une incidence comparable de rechute de leucémie. Ces quatre complications impliquent directement les lymphocytes T. Dans le but de mieux comprendre le schéma particulier des évènements qui suivent la TSCO et d’améliorer le pronostic des patients, nous avons étudié le potentiel fonctionnel, la persistance et la reconstitution antivirale des lymphocytes T au sein d’un groupe d’enfants transplantés de sang de cordon ombilical (SCO). Étant donné que le SCO contient une majorité de lymphocytes T naïfs, nous avons étudié les lymphocytes T spécifiques au HLA-A2:Melan-A26-35 A27L; seul répertoire naïf et abondant caractérisé chez l’homme. Nous avons observé que les lymphocytes T du SCO se différencient en populations effectrices, s’oligoclonalisent, produisent de l’IFN-γ et lysent spécifiquement leur cible suite à la stimulation. Néanmoins, ces cellules produisent moins d’IFN-γ et sont moins bifonctionnelles que leurs homologues issus du sang périphérique d’adultes. Chez les patients, les lymphocytes T du SCO s’épuisent après la TSCO : ils s’oligoclonalisent dramatiquement, sont principalement en différenciation terminale, et une importante fréquence exprime PD-1 (« programmed death-1 ») dans les 3 à 6 premiers mois post-greffe. Très peu de patients sont capables de développer des réponses antivirales durant cette période et la fréquence de lymphocytes T qui expriment PD-1 semble aussi avoir un impact sur le risque subséquent de faire une rechute de leucémie. La deuxième vague de lymphocytes T émergeant à 6 mois post-TSCO mène à une population fonctionnelle et diversifiée. En conclusion, la fonctionnalité des lymphocytes T présents dans les 3 à 6 premiers mois post-TSCO doit être rétablie pour améliorer les risques d’infections opportunistes et de rechute de leucémie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La recherche du premier chapitre de ce mémoire a été menée en collaboration avec les co-chercheurs suivants: Catherine Olivier et Michel Bergeron.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.