1000 resultados para conception du réseau en fonction du temps


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour exprimer ou définir une idée nouvelle, Derrida détourne souvent le sens d’un mot en se l’appropriant. La relation de Derrida avec les idées est telle que leur transmission passe par un vocabulaire spécifique, notamment l’analyse de l’étymologie (vraie et fausse). Mais quelle est sa conception du mot ? Quelles en sont les implications et les conséquences ? Pour répondre à ces questions, l’approche la plus féconde consiste à suivre au plus près celle que Derrida utilise en abordant la langue par rapport à la grammaire au sens large (c’est-à-dire tout ce qui fait événement dans la langue). En effet, la relation entre le mot et l’idée prend tout son sens dans l’analyse de certaines scènes bibliques, telles celles de la Genèse ou encore du mythe de Babel. Le fameux énoncé inaugural de l’Évangile de Jean, « Au commencement était la parole... », fait retour dans l’œuvre de Derrida, où il connaît plusieurs variations : il mérite examen, dans la perspective d’une déconstruction du logos et des origines de la langue. Le corpus de notre étude porte principalement sur trois textes de Jacques Derrida : « Des tours de Babel » (L’art des confins, PUF, 1979), Schibboleth – Pour Paul Celan (Galilée, 1986) et Donner la mort (Galilée, 1999), ces textes permettant tous une interrogation de l’« intention » divine dans le langage. Notre visée, en privilégiant dans l’œuvre derridienne ces « exemples » bibliques, est d’étudier la démarche de Derrida dans la « création » d’une langue, aspect qui a toujours été inséparable de l’élaboration de sa philosophie et auquel il a accordé la plus grande attention. À terme, ce travail se veut une contribution à la pensée du philosophe, portant sur un aspect capital de son travail et battant en brèche l’idée que son écriture est « absconse » ou « hermétique », alors qu’il y va pour lui de la mise en œuvre de sa manière même de concevoir la langue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une récente théorie de la mémoire a proposé que lorsqu'un souvenir déjà bien consolidé est réactivé, il redevient labile et susceptible aux modifications avant d'être restabilisé (reconsolidé) en mémoire à long terme. Ce nouveau modèle réfute le modèle classique de la consolidation qui propose qu'une fois consolidés, les souvenirs soient permanents et donc résistants aux effets des agents amnésiques. Les études validant la théorie de la reconsolidation abondent chez les animaux, mais encore peu d'études ont été réalisées chez les humains. L'objectif de cette thèse est de vérifier, dans une population de sujets sains et de sujets souffrant de trouble de stress post-traumatique (TSPT), l'efficacité d'un agent pharmacologique, le propranolol (un β-bloquant noradrénergique) à atténuer des souvenirs émotionnels nouvellement acquis ou déjà bien consolidés. Plus spécifiquement, nous avons mené un essai clinique contrôlé à double insu chez des sujets sains en leur administrant du propranolol (vs du placebo) lors de l'acquisition d'un nouveau souvenir et une semaine plus tard, lors de sa réactivation. L'objectif du premier article était d'évaluer l'efficacité du propranolol à diminuer la consolidation et la reconsolidation d'un souvenir émotionnel. Par ailleurs, puisque les études chez les animaux ont démontré que ces deux processus mnésiques s'effectuent à l'intérieur d'une fenêtre temporelle précise, le moment de l'administration du propranolol fut pris en considération. Les résultats ont démontré que le propranolol est en mesure de diminuer la consolidation et la reconsolidation d'une histoire émotionnelle tel que démontré par un pourcentage de bonnes réponses plus faible que le groupe contrôle lors des rappels. Toutefois, pour que cet effet soit observé, le propranolol doit être administré une heure avant la présentation des stimuli, pour la consolidation et une heure avant leur réactivation, pour la reconsolidation. En outre, les études portant sur la consolidation et la reconsolidation chez les animaux et chez les humains obtiennent parfois des résultats contradictoires. Ceci pourrait s'expliquer par le type de stimuli utilisé. Ainsi, l'objectif du second article était de préciser quel type d'information est le plus susceptible d'être affecté par le propranolol lors de son acquisition (consolidation) et lors de sa réactivation (reconsolidation). Pour ce faire, les éléments de l'histoire émotionnelle ont été divisés en fonction de leur valence (émotionnel ou neutre) et de leur centralité (central ou périphérique). Les résultats ont démontré le propranolol affecte l'ensemble des informations centrales lors du blocage de la consolidation, mais qu'il affecte plus spécifiquement les éléments émotionnels centraux lors de la reconsolidation. Notre groupe ayant précédemment démontré que le traitement avec le propranolol est en mesure de réduire les symptômes de TSPT chez une population clinique, nous nous sommes interrogés sur son efficacité à diminuer la mémoire implicite d'un événement traumatique. Le propranolol a été administré aux participants à 6 reprises (une fois par semaine sur une période de 6 semaines) lors de la réactivation de leur trauma. Les résultats ont révélé que le traitement avec le propranolol est en mesure de diminuer la réponse psychophysiologique des participants à l'écoute du compte rendu de leur trauma une semaine et 4 mois suivant la fin du traitement. En somme, cette thèse démontre que le propranolol est en mesure de bloquer la consolidation et la reconsolidation de souvenirs émotionnels chez l'humain lorsqu'il est administré une heure avant l'acquisition ou la réactivation des souvenirs. Il arrive en outre à atténuer un souvenir déclaratif émotionnel chez des sujets sains, mais également un souvenir implicite chez des sujets souffrant de TSPT. Ainsi, ces résultats ouvrent la voie à la création de nouveaux traitements pour les psychopathologies ayant comme étiologie un souvenir émotionnel intense.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif poursuivi dans ce mémoire est de montrer que le néo-républicanisme possède les outils les plus efficaces pour penser la réconciliation des droits individuels, fondement des États de droits occidentaux contemporains, et des droits collectifs que peuvent légitimement réclamer les collectivités nationales. Dans cette visée, et comme de nombreux auteurs libéraux se sont attaqués à cette question dans les dernières décennies, j'expose d'abord trois stratégies libérales pour traiter cette possible réconciliation tout en faisant ressortir leurs faiblesses respectives. J'avance qu'aucune de ces stratégies ne permet vraiment de comprendre comment un régime de droits collectifs et un régime de droits individuels peuvent être articulés de façon cohérente. J'argue ensuite que le néo-républicanisme, parce qu'il comprend la liberté non pas comme l'absence d'interférence, mais comme un statut de non-domination, permet de voir que les droits collectifs des groupes nationaux et les droits individuels sont nécessairement compatibles, parce qu'ils s'organisent en fonction du même idéal. Les droits d'un individu et ceux de sa collectivité nationale sont, d'une certaine manière, les deux faces d'une même médaille, la non-domination individuelle dépendant de la non-domination du groupe national auquel l'individu appartient. En dernier lieu, je soutiens que cette compréhension du rapport entre les deux régimes de droits devrait se traduire par un ensemble de mesures institutionnelles concrètes dont la plus importante est la reconnaissance d'un droit, pour les collectivités nationales, à l'autodétermination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse examine les théories politiques profanes qui sont mises de l’avant dans les articles et les reportages des journalistes politiques. Par «théories profanes», nous entendons les constructions intellectuelles informelles qui aident les journalistes à appréhender et à concevoir la vie politique. Nous les définissons ici par opposition aux théories scientifiques des universitaires. Ces théories sont examinées sous trois angles différents, au travers de trois articles scientifiques distincts. Notre principal objectif est de déterminer dans quelle mesure et pour quelles raisons les théories journalistiques profanes convergent ou divergent des théories universitaires scientifiques. Au premier chapitre, nous nous demandons ce que les journalistes font, en nous attardant aux critères sur lesquels ces derniers s’appuient pour analyser la personnalité des chefs de partis politiques. Plus précisément, nous cherchons à savoir si les journalistes tiennent compte des considérations politiques jugées importantes par les citoyens. Afin d’atteindre cet objectif, nous réalisons une analyse de contenu des reportages diffusés dans les grands bulletins d’information télévisés au sujet de l’ex-chef du Parti québécois, André Boisclair. Au second chapitre, nous poussons notre réflexion un cran plus loin en nous demandant ce que les journalistes disent précisément dans les théories qu’ils développent. Pour ce faire, nous examinons les théories développées par les journalistes pour expliquer le comportement des parlementaires. De manière spécifique, nous contrastons les théories académiques de la dissidence politique avec ce qui s’est écrit dans les grands journaux canadiens à l’occasion de quatre votes particulièrement serrés ayant eu lieu à la Chambre des communes à propos de la prolongation de la mission canadienne en Afghanistan et de l’abolition du registre des armes d’épaule. Enfin, nous nous attardons à ce que les journalistes pensent de leurs propres théories, en les interrogeant sur les raisons qui les poussent à mettre ces dernières de l’avant et sur la manière dont ils s’y prennent pour les développer. Nous nous attardons aux mécanismes qui rythment la pensée des journalistes et nous portons notre regard sur les matériaux dont ceux-ci se servent pour construire les théories qu’ils incluent dans leurs reportages. Pour ce faire, nous réalisons des entrevues semi-dirigées avec des journalistes politiques affectés à la couverture de l’élection présidentielle française de 2012. Nos questions portent notamment sur le chemin intellectuel qu’ils parcourent lorsqu’ils tentent de comprendre et d’expliquer le comportement des politiciens, ainsi que sur la façon dont ils conçoivent les campagnes électorales et le rôle qu’ils sont appelés à jouer à l’intérieur de celles-ci. Nos conclusions sont à l’effet que les journalistes construisent bel et bien des théories profanes de la vie politique afin d’aller au-delà des simples comptes rendus factuels et de répondre à ce qu’ils considèrent être une nécessité de leur travail. Les théories qu’ils mettent de l’avant tiennent compte des considérations politiques jugées importantes par les électeurs, et elles ont des traits communs avec certaines des idées sous-tendues par les théories scientifiques des universitaires. Ces théories s’articulent autour des observations que font les journalistes, et des conversations auxquelles ils prennent part ou dont ils sont témoins. Elles reflètent la plupart du temps l’expérience ou le vécu du journaliste. Les théories journalistiques profanes se distinguent toutefois des théories scientifiques en ce qu’elles ne sont ni formalisées, ni explicitement nommées. Elles n’ont pas la sophistication des théories universitaires, et elles sont parfois reléguées à l’arrière-plan de la couverture médiatique au bénéfice d’aspects plus théâtraux de la vie politique. Les journalistes développent par contre des mécanismes pour valider leurs théories. La contribution de cette thèse à l’avancement des connaissances se manifeste sur les plans conceptuel, théorique et empirique. Sur le plan conceptuel, nous étayons davantage le concept des théories journalistiques. Notre thèse permet de mieux comprendre la couverture médiatique de la politique, en mettant en lumière un de ses aspects jusqu’ici négligé par les politologues, soit le fait que les journalistes construisent et utilisent des théories politiques qui leur sont propres pour appréhender l’univers au sein duquel ils évoluent. Sur le plan théorique, nous faisons ressortir les objectifs et les impératifs qui guident les journalistes qui développent ces théories. Enfin, sur le plan empirique, nous donnons pour une rare fois l’occasion aux journalistes de s’exprimer sur la manière dont ils perçoivent leur propre travail.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche avait pour but de déterminer quelle était l’influence de l’administration d’un atelier de prise de notes dans le cadre du premier cours de philosophie du collégial qui se donnait au début de la deuxième session des apprenants. Elle se situait dans le cadre d’une recherche intervention et le point de vue des parties prenantes, à savoir les apprenants et les enseignants, était recueilli de façon qualitative. Les premiers, forts d’une expérience d’une session au niveau collégial, ont exprimé le besoin de suivre une formation formelle liée à la prise de notes, quand bien même celle-ci leur demanderait un effort supplémentaire. Les deuxièmes nous ont fait part de leurs préoccupations en ce qui a trait à la qualité des notes de leurs étudiants. Nous avons demandé aux répondants de restituer les thèmes principaux de deux textes équivalents distribués de façon simultanée en fonction des rangées (première rangée – premier texte, deuxième rangée – deuxième texte, etc.), puis nous avons interverti l’ordre de distribution des textes après l’atelier. Lors de l’analyse des résultats, nous avons constaté que les répondants avaient restitué les thèmes dans un ordre d’importance plus approprié après l’atelier qu’avant celui-ci, mais nous avons surtout remarqué une amélioration significative dans l’emploi des stratégies de prise de notes et dans la constance de leur utilisation tout au long du second texte étudié.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cycle du carbone (C) est, depuis la révolution industrielle, déstabilisé par l’introduction dans l’atmosphère de C autrefois fossilisé. Certaines mesures de mitigation prometteuses impliquent la séquestration accrue du CO2 atmosphérique dans les sols via le développement du réseau racinaire des arbres. Ce projet de recherche visait à : 1) quantifier la biomasse racinaire ligneuse produite annuellement par unité de surface par le Salix miyabeana cultivé en régie intensive à courtes rotations, 2) doser la concentration en C et en N des racines de saule en fonction de leur profondeur et de leur diamètre et 3) déterminer l’influence des propriétés pédoclimatiques du milieu sur la séquestration du carbone organique (Corg) par les racines. Pour y arriver, six souches de saules ont été excavées à partir de huit sites (n=48) et neuf carottes de recolonisation ont été implantées à cinq sites (n=45) pour évaluer la productivité racinaire fine. Les échantillons séchés ont été pesés pour quantifier la biomasse racinaire produite, et ont été analysés pour le C et le N. La productivité en biomasse racinaire ligneuse du saule en plantation pour tout le réseau d'échantillonnage varie de 0,7 – 1,8 Mg/ha/an. La proportion de C dans la biomasse racinaire s’étend de 31,3% à 50,4% et sa variance dans les tissus est expliquée par le diamètre racinaire et par les conditions environnementales des sites de provenance. Les conditions climatiques constituent la principale influence sur la production de biomasse racinaire. La variance de la biomasse racinaire est significativement contrôlée (p :0,004) par la quantité de précipitation de l’été et de l’année qui contrôlent ensemble 83,4 % du r2 ajusté. La précipitation de l’été est inversement liée à la productivité racinaire puisque les protéines expansines des racines sont stimulées par les carences hydriques du sol. La production de racines fines des plantations (1,2 à 2,4 Mg/ha/an) est, elle, plus fortement contrôlée par les conditions pédologiques du site qui expliquent 36,5% de la variance de productivité des racines fines contre 37,5% de la variance expliquée par les facteurs pédoclimatiques. Le P et le N du sol ont des rôles prépondérants sur la production de racines fines. Une disponibilité en P accrue dans le sol stimule la biomasse racinaire fine alors qu’une quantité supérieure de N dans le sol limite la croissance racinaire tout en favorisant la croissance des parties aériennes de la plante. Ce projet a permis d’améliorer notre compréhension des conditions pédologiques et climatiques qui engendrent, au Québec méridional, une productivité et une séquestration en Corg accrue dans le réseau racinaire du saule.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En raison de leur déficit phonologique leur causant d’importantes difficultés en lecture, les élèves dyslexiques sont particulièrement à risque d’échec scolaire. Des études récentes ont montré que l’information véhiculée par les unités morphologiques contenue dans les mots en permettrait la reconnaissance, en plus d’en faciliter l’accès au sens. L’objectif de cette étude est d’évaluer les connaissances morphologiques d’élèves dyslexiques francophones de niveau primaire. Nous avons administré trois tâches servant à évaluer les connaissances morphologiques dérivationnelles en lien avec les règles de formation des mots à un groupe d’élèves dyslexiques (n=54) et deux groupes contrôles, soit un groupe d’élèves du même âge chronologique (n=46) et un groupe d’élèves de même niveau de lecture (n=88). Nous avons hiérarchisé ces trois tâches en fonction d’un continuum basé sur les opérations mentales sollicitées. Nos résultats montrent que les trois groupes d’élèves ont tous tiré profit des unités morphologiques pour réussir ces trois tâches et que le niveau de réussite va de pair avec le caractère explicite de ces tâches.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire présente l’étude de la faisabilité de la planification de traitements pour la curiethérapie interstitielle du sein en utilisant l’imagerie par résonance magnétique (IRM) seule au lieu de l’imagerie par tomodensitométrie (CT). L'imagerie CT étant la référence, la mesure des différences observables sur la distribution de doses provenant des deux types d’imagerie a été effectuée. Des fantômes de seins ont été fabriqués et utilisés, ainsi que l’imagerie de patients. La taille des fantômes en fonction du positionnement dans l’appareil d’IRM et la longueur reconstruite des cathéters ont été analysées. Les différences dans les distributions de doses de fantômes et de patients ont été calculées en s’assurant que la reconstruction des cathéters provenant des images CT et IRM est la seule variable. La différence dans les critères de doses à respecter est plus grande lorsque la taille du fantôme et/ou un déplacement latéral dans l’IRM sont plus grands. La longueur reconstruite des cathéters est comparable entre les deux techniques d’imagerie. Pour le petit fantôme des différences <2% ont été observées pour tous les critères de dose. Pour le grand fantôme et pour les patients, une valeur maximale de 5% est observée pour les critères sur la cible, mais peut atteindre 19% pour le critère Externe V150%/V100% pour le grand fantôme et 33% pour les patients. Par contre, le seuil clinique de ce critére est toujours respecté. Ceci nous indique que pour la plupart des patients, la zone à traiter serait bien couverte en utilisant les images IRM uniquement pour planifier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En 2011, cinq (5) cultivars de saules ont été sélectionnés pour leur rendement en biomasse. Ils ont été plantés sur quatre sites de la province du Québec et ont été maintenus selon le protocole de la culture intensive sur courtes rotations (CICR) afin de déterminer leur potentiel pour la bioénergie dans des environnements contrastés. La composition et l’anatomie du bois de ces cultivars ont été caractérisées et comparés en fonction des conditions environnementales caractéristiques de chaque site. La hauteur et le diamètre à la base des plantes diffèrent selon les sites. Ainsi, les cultivars répondent de façon spécifique aux conditions pédoclimatiques dans lesquelles ils sont cultivés. L’effet de l’environnement n’a pas été mis en évidence sur la teneur en lignine des cultivars. Cependant, un effet génotypique a pu être constaté soulignant l’importance de la sélectivité des cultivars. La densité du bois a étonnamment conservé la même hiérarchie génotypique entre les sites. À l’opposé, l’anatomie du bois présente des différences notamment au niveau des caractéristiques des fibres et des vaisseaux. Une forte teneur en polyphénols ainsi que des fibres moins larges et des vaisseaux plus nombreux ont été observés sur le site dont le bois est le plus dense supposant l’effet probable d’un stress abiotique. De plus, deux fois plus de fibres gélatineuses, fibres riches en cellulose, ont été identifiées sur ce site montrant un intérêt pour la production de bioéthanol.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : L’hypertension artérielle (HTA) est reconnue comme un important facteur de risque des maladies cardiovasculaires et de la mortalité prématurée. Les données montrent qu’un adulte sur 4 dans le monde souffrait d’hypertension en 2000 et ce chiffre serait en augmentation. Dans les pays africains, les estimations prévoient une progression plus rapide de la prévalence de l’HTA engendrant ainsi un problème additionnel à gérer pour le système de santé qui est toujours aux prises avec les maladies transmissibles. Les progrès économiques et l’urbanisation semblent entraîner des modifications des habitudes de vie dans ces pays qui seraient associés à une émergence des maladies non transmissibles, dont l’HTA. Le Burkina Faso, pays de l’Afrique de l’Ouest classé comme un pays à faibles revenus, aurait amorcé sa transition épidémiologique et il importe de faire un état sur les maladies non transmissibles en émergence. Afin de contribuer à la connaissance des aspects épidémiologiques de l’HTA au Burkina Faso, trois objectifs spécifiques ont été retenus pour la présente recherche : 1) Estimer la prévalence de l’HTA et identifier les facteurs associés dans la population rurale et la population semi-urbaine du Système de Surveillance démographique et de Santé de Kaya (Kaya HDSS) ; 2) Déterminer la différence de prévalence de l’HTA entre la zone lotie et la zone non lotie de la ville de Ouagadougou et identifier les facteurs associés ; 3) Déterminer la détection, le traitement, le contrôle de l’HTA et estimer la fréquentation des centres de santé par les personnes hypertendues nouvellement dépistées dans la population adulte du Centre Nord du Burkina Faso. Méthodologie : Le cadre de notre recherche est le Burkina Faso. Deux sites ont fait l’objet de nos investigations. Kaya HDSS, situé dans la région du Centre Nord du Burkina Faso a servi de site pour les enquêtes ayant permis l’atteinte du premier et du troisième objectif général. Une étude transversale a été menée en fin 2012 sur un échantillon aléatoire de 1645 adultes résidents du site. Un entretien suivi de mesures anthropométriques et de la pression artérielle (PA) ont été réalisés au domicile des participants. Toutes les personnes qui avaient une PA élevée (PA systolique ≥ 140 mm Hg et/ou PA diastolique ≥ 90 mm Hg) et qui n’avaient pas été diagnostiquées auparavant ont été référées à une formation sanitaire. Un second entretien a été réalisé avec ces personnes environ un mois après. Pour le second objectif général, c’est le système de surveillance démographique et de santé de Ouagadougou (Ouaga HDSS) qui a été retenu comme site. Ouaga HDSS couvre 5 quartiers de la zone nord de Ouagadougou. Une étude transversale a été réalisée en 2010 sur un échantillon aléatoire représentatif de la population adulte résidante du site (N = 2041). Des entretiens suivis de mesures anthropométriques et de la PA ont été réalisés durant l’enquête. Résultats : Notre premier article examine la prévalence de l’HTA et les facteurs associés en milieu rural et en milieu semi-urbain. Au total 1481 participants ont été dépistés et la prévalence totale pondérée était de 9,4 % (95 % IC : 7,3 % - 11,4 %) avec une grande différence entre le milieu semi-urbain et le milieu rural : un adulte sur 10 était hypertendu en milieu semi-urbain contre un adulte sur 20 en milieu rural. L’analyse multivariée nous a permis d’identifier l’âge avancé, le milieu semi-urbain et l’histoire familiale de l’HTA comme des facteurs de risque. Dans le deuxième article, nous avons déterminé la différence entre la zone lotie et la zone non lotie du milieu urbain en ce qui concerne l’HTA. Sur 2 041 adultes enquêtés, la prévalence totale est estimée à 18,6 % (95 % IC : 16,9 % - 20,3 %). Après ajustement avec l’âge, il n’y avait pas de différence de prévalence entre la zone lotie et la zone non lotie de la ville de Ouagadougou. Dans ce milieu urbain, l’obésité et l’inactivité physique sont confirmées comme des facteurs à risque. En plus des personnes âgées qui constituent un groupe à risque, les migrants venant du milieu rural et les veuves ont été identifiés comme des personnes à risque. Notre troisième article examine la détection, le traitement, le contrôle de l’HTA ainsi que la fréquentation des structures de santé par les personnes nouvellement dépistées hypertendues dans le milieu non urbain. Sur les 1481 participants à l’étude, 41 % n’avaient jamais mesuré leur PA. Sur les 123 participants (9,4 %) dépistés comme hypertendus, 26,8 % avaient déjà bénéficié d’un diagnostic et 75,8 % de ces derniers étaient sous traitement anti hypertensif. Parmi les participants sous traitement, 60 % (15 sur 25) avaient leur PA sous contrôle. Le suivi de 2 mois a permis de retrouver 72 des 90 personnes nouvellement dépistées. Seulement 50 % ont été en consultation et parmi ces derniers 76 % (28 personnes sur les 37) ont reçu une confirmation de leur hypertension. Conclusion : Notre recherche montre l’évolution de l’HTA en fonction du niveau d’urbanisation de la population. Même si les maladies infectieuses restent la priorité du système de santé, la lutte contre l’HTA doit s’inscrire dans un cadre général de lutte contre les maladies cardiovasculaires. Cette lutte doit être amorcée maintenant avant que des proportions inquiétantes ne soient atteintes. Des actions de prévention telles que la promotion de saines habitudes de vie, le dépistage de masse et un renforcement des capacités du système de soins sont à mettre en œuvre.