978 resultados para sampling techniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans son texte, l’auteur tente de répondre à quatre grandes questions : le cadre juridique actuel qui régi la gestion des renseignements personnels dans le réseau de la santé et des services sociaux protège–t–il adéquatement ces données sensibles ? Peut–on tenter d’améliorer cette protection ? Quels facteurs contribuent à l’émergence des nouvelles normes ? Quel rôle les exigences techniques, les intérêts économiques et les considérations politiques jouent–ils dans l’émergence de ces nouvelles normes ? À l’égard de ces interrogations, l’auteur montre que le régime actuel, qui se distingue particulièrement par sa complexité et son opacité, ne protège pas adéquatement les renseignements personnels appelés à circuler dans l’univers numérique en émergence. Il examine donc les facteurs qui contribuent À l’émergence des nouvelles normes alors que les règles juridiques actuelles se trouvent en porte–à–faux par rapport aux développements technologiques. Par la suite, il tente de situer ou de mesurer l’influence des intérêts économiques, des considérations politiques et des impératifs techniques dans l’émergence de ces nouvelles normes. Finalement, il met de l’avant un concept nouveau, celui des aires de partage, qu’il présente comme un moyen de mieux protéger les renseignements personnels et confidentiels dans l’ère de l’information.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ans ce texte, l’auteur examine le régime de responsabilité des prestataires techniques au regard de la Loi pour la confiance dans l’économie numérique. Cette analyse est basée sur le rôle des fournisseurs d’accès et des fournisseurs de services de stockage. Par ailleurs, l’auteur présente les obligations légales d’identification et de coopération avec les services judiciaires mises à la charge des prestataires techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Les prestataires techniques fournissant des services sur Internet (« FSI ») incluant le simple transporteur de documents technologiques, le prestataire offrant des services d’antémémorisation (ou services de caching) ou l’hébergeur peuvent être responsables face aux tiers ou face à leurs clients, et ce, à plusieurs niveaux. Les FSI peuvent dans certains cas être tenus responsables face aux tiers pour le caractère illicite de l’information qu’ils diffusent. Certaines informations circulant sur Internet peuvent affecter les droits d’auteur de tiers ou être diffamatoires envers certains individus et les FSI peuvent jouer un rôle dans la transmission de ces informations sur Internet. Face à leurs clients, les FSI qui ont accès à leurs renseignements personnels afin entre autres d’être en mesure d’offrir les services demandés peuvent dans certains cas être tenus responsables pour avoir fait une collecte, une utilisation ou une divulgation non autorisée de ces renseignements. Ils peuvent également être tenus responsables d’avoir fait parvenir des courriels publicitaires non sollicités à leurs clients ou pour avoir suspendu le compte d’un client qui envoie du spam dans certaines circonstances. Le présent article traite des questions de responsabilité des prestataires techniques Internet au Québec : envers les tiers en ce qui a trait au caractère illicite des documents transmis ou hébergés; et envers leurs clients relativement à leurs obligations de respect des renseignements personnels de ces clients et à leur responsabilité pour les questions relatives au spam."

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les discussions sur les biotechnologies, l’argument de la dignité humaine conduit souvent à l’impasse. Le philosophe et sociologue allemand, Jürgen Habermas, craint que le débat, qui s’est ouvert récemment autour de la recherche sur les embryons, les diagnostics prénatal et préimplantatoire, et le clonage, se polarise, de nouveau comme c’était déjà le cas, en Allemand et dans les autres pays occidentaux, au sujet de l’avortement. La seule façon de sortir de cette polarisation – et c’est là un des apports importants de Habermas – est de distinguer nettement la dignité humaine, d’une part et d’autre part, la dignité de la vie humaine. D’un point de vue éthique et juridique, l’argument de la dignité humaine ne saurait nécessairement s’étendre au fœtus ou embryon. Car, la dignité humaine est liée à la symétrie qui détermine la relation liant les membres d’une communauté morale. Elle n’est pas un fait naturel, une propriété qu’on a par nature comme l’intelligence ou le fait d’avoir les yeux bleus. Au contraire, la dignité humaine désigne cette «inviolabilité» qui ne peut avoir de sens que dans les relations interpersonnelles de reconnaissance mutuelle et dans un rapport d’égal à égal des personnes entre elles. Néanmoins, le fœtus ou l’embryon peut, d’une certaine manière, échapper à notre contrôle et disposition en référence à la dignité que nous devons à la vie de l’espèce humaine. De ce point de vue, nos conceptions modernes de la vie anté-personnelle et la façon dont nous voulons nous comporter par rapport à cette vie forment, pour ainsi dire, un environnement éthique stabilisant de l’espèce pour la morale rationnelle des sujets de droits moraux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les personnes âgées occupent une proportion importante des lits dans les centres hospitaliers de soins de courte durée québécois et leur présence est en augmentation. Parmi ces personnes, plusieurs présentent un état confusionnel aigu (ÉCA), voire un délirium, au cours de leur hospitalisation. Les soins infirmiers qu’elles requièrent sont complexes et les études portant sur la formation continue des infirmières tiennent peu compte de cette réalité. Les approches utilisées dans les études sont surtout centrées sur l’acquisition de connaissances et d’habiletés techniques et négligent les aspects créatifs, relationnels, critiques, réflexifs et éthiques essentiels à une prestation de soins infirmiers de qualité. On y retrouve également peu d’informations sur la conception de l’intervention éducative et sur son évaluation. C’est dans cette perspective que le but de l’étude était de mettre à l’essai et d’évaluer qualitativement le processus et les résultats d’une intervention éducative auprès d’infirmières soignant des personnes âgées hospitalisées en ÉCA. Plus particulièrement, ce sont les conditions facilitant et contraignant l’intervention, les aspects les plus utiles pour la pratique, les différents savoirs exprimés et les résultats de soins perçus par les participantes qui étaient recherchés. C’est en s’inspirant de la pédagogie narrative de Diekelmann (2001) et des savoirs infirmiers de Chinn et Kramer (2008) que l’intervention a été conçue et évaluée. La description d’expériences de soins vécues par les infirmières et la création d’un environnement d’apprentissage favorisant l’interprétation, en groupe, de ces expériences à l’aide d’informations théoriques et empiriques caractérisent la pédagogie narrative à la base de cette intervention. Pour atteindre le but, une étude de cas a été retenue. La stratégie d’échantillonnage par choix raisonné a permis de sélectionner des participantes travaillant sur les trois quarts de travail, ayant différents niveaux de formation et une expérience comme infirmière variant de huit mois à 36 ans, dont l’âge variait de 23 à 64 ans. L’échantillon, composé de 15 infirmières soignant fréquemment des personnes en ÉCA et travaillant sur des unités de soins chirurgicaux cardiologiques et orthopédiques, était réparti dans trois groupes égaux de cinq participantes. L’intervention éducative comprenait quatre journées de formation offertes à intervalle de trois semaines pour une durée totale de 12 semaines. Au cours de chacune de ces journées, les participantes devaient effectuer un travail écrit réflexif concernant une situation de soins vécue avec une personne en ÉCA et, par la suite, partager, interpréter et s'interroger sur ces situations en faisant des liens avec des informations théoriques et empiriques sur l’ÉCA dans le cadre d’un atelier de groupe. Une triangulation de méthodes de collecte de données, incluant des notes de terrain de l’investigatrice, les travaux réflexifs des participantes, des questionnaires complétés par les participantes après chaque journée de formation et une entrevue individuelle avec chaque participante réalisée par une intervieweuse externe à la fin de l’intervention, a permis de décrire la mise à l’essai de l’intervention et d’évaluer qualitativement son processus et ses résultats. Une analyse de contenu des données qualitatives intra et inter participante a été effectuée. La mise à l’essai de l’intervention a mis en évidence l’importance de tenir compte des besoins variés des participantes et d’ajuster l’intervention éducative d’un groupe à l’autre, notamment eu égard aux contenus théoriques et empiriques sur l’ECA. L’évaluation du processus souligne que l’intervention a été facilitée par les attitudes et la diversité des expériences des participantes, ainsi que par l’utilisation de situations de soins réelles permettant d’intégrer la théorie dans la pratique. L’accès à de nouveaux outils d’évaluation des personnes en ÉCA a été perçu particulièrement utile par les participantes. Quant à l’évaluation des résultats, elle a permis de rendre visibles de nombreux savoirs empiriques, éthiques et esthétiques et certains savoirs personnels et émancipatoires exprimés par les participantes. Les participantes ont, entre autres, réalisé des évaluations plus approfondies des personnes en ÉCA, ont réduit ou évité les mesures de contrôle physiques des personnes atteintes et ont impliqué davantage les familles dans les soins. L’évaluation a aussi permis de décrire certains résultats perçus par les participantes sur le bien-être physique et psychologique des personnes soignées et sur les familles. Les personnes en ECA étaient, entre autres, rassurées, plus calmes et soulagées et les familles moins inquiètes et davantage impliquées dans les soins. Les résultats de l’étude mettent en évidence l’applicabilité d’une intervention éducative narrative basée sur un cadre de référence en sciences infirmières et son utilité pour la formation continue dans les milieux de soins. L’étude ouvre la porte à des possibilités de transfert de l’intervention à d’autres populations d’infirmières soignant des clientèles ayant des besoins complexes, notamment en gériatrie, en oncologie ou en soins palliatifs. Des études visant à évaluer l’intervention auprès d’un échantillon plus important et à explorer ses effets sur les personnes soignées et leurs familles sont proposées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Travail d'intégration présenté à France Piotte dans le cadre du cours PHT-6113.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse cible l’étude d’une organisation sociotechnique pluraliste, le Réseau de centres d’excellence ArcticNet, établi depuis 2003 au sein de l’Université Laval et financé par le programme fédéral des Réseaux de centres d’excellence (RCE). Ce programme, effectif depuis 1988, est issu d’une initiative du ministère de l’Industrie Canada et des trois Conseils fédéraux de financement de la recherche scientifique (CRSNG, CRSH et IRSC). Par sa dimension interdisciplinaire et interinstitutionnelle, le RCE ArcticNet sollicite la mise en place de divers accommodements sur une thématique environnementale controversée, celle du développement de l’Arctique canadien côtier. Notre approche se concentre sur la description de ces collaborations pluralistes et l’analyse des stratégies de consensus mises en place par une organisation universitaire médiatrice. Si cette étude illustre le cas d’ArcticNet, elle questionne toutefois deux réalités d’ensemble: (1) D’un point de vue théorique, prépondérant dans cette thèse, les enjeux environnementaux et de développement durable s’inscrivent dans les nouvelles réalités de la production des connaissances portées par une coévolution entre science et société, contribuant à l’expansion des domaines de R&D ciblés; et, (2) D’un point de vue empirique illustratif, les éléments de formation et d’évolution d’un réseau sociotechnique intersectoriel et les stratégies des scientifiques dans la recherche et le développement de l’Arctique canadien côtier présentent un profil basé sur l’accommodement des parties prenantes. Cette recherche adhère au postulat épistémologique des théories des organisations sociotechniques pluralistes, plutôt qu’aux modèles théoriques de la société/économie de la connaissance. L’étude regroupe un total de 23 entrevues recueillies en 2008 et en 2010 auprès de l’administration, de membres scientifiques et de partenaires d’ArcticNet, suivant une logique de témoignage. Elle ouvre ainsi une nouvelle réflexion sur leur milieu de pratique de la science, plus particulièrement des sciences de l’environnement, vers lequel la société actuelle oriente la nouvelle production des connaissances, à travers les divers financements de la recherche et du développement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation des mesures subjectives en épidémiologie s’est intensifiée récemment, notamment avec la volonté de plus en plus affirmée d’intégrer la perception qu’ont les sujets de leur santé dans l’étude des maladies et l’évaluation des interventions. La psychométrie regroupe les méthodes statistiques utilisées pour la construction des questionnaires et l’analyse des données qui en sont issues. Ce travail de thèse avait pour but d’explorer différents problèmes méthodologiques soulevés par l’utilisation des techniques psychométriques en épidémiologie. Trois études empiriques sont présentées et concernent 1/ la phase de validation de l’instrument : l’objectif était de développer, à l’aide de données simulées, un outil de calcul de la taille d’échantillon pour la validation d’échelle en psychiatrie ; 2/ les propriétés mathématiques de la mesure obtenue : l’objectif était de comparer les performances de la différence minimale cliniquement pertinente d’un questionnaire calculée sur des données de cohorte, soit dans le cadre de la théorie classique des tests (CTT), soit dans celui de la théorie de réponse à l’item (IRT) ; 3/ son utilisation dans un schéma longitudinal : l’objectif était de comparer, à l’aide de données simulées, les performances d’une méthode statistique d’analyse de l’évolution longitudinale d’un phénomène subjectif mesuré à l’aide de la CTT ou de l’IRT, en particulier lorsque certains items disponibles pour la mesure différaient à chaque temps. Enfin, l’utilisation de graphes orientés acycliques a permis de discuter, à l’aide des résultats de ces trois études, la notion de biais d’information lors de l’utilisation des mesures subjectives en épidémiologie.