121 resultados para statistique Bayesienne


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de recherche principal poursuivi dans cette thèse de doctorat est de mieux comprendre le rôle d’une insatisfaction corporelle dans l’adoption de pratiques de maintien et de changement du poids chez des adolescent(e)s québécois(es). Pour atteindre cet objectif de recherche principal, trois articles scientifiques liés les uns aux autres ont été rédigés. Chaque article poursuit des objectifs spécifiques (1er article: estimer les proportions d’adolescent(e)s québécois(e)s poursuivant un objectif de poids apparié et non-apparié à leur poids actuel et identifier les déterminants des objectifs de poids non-apparié au poids actuel, 2e article: identifier des associations entre un objectif de poids apparié vs. non-apparié au poids actuel et la fréquence d’utilisation de différents comportements liés au poids et à l’alimentation, 3e article: observer des associations entre différents degrés d’insatisfaction corporelle et l’utilisation de divers comportements liés au poids et à l’alimentation et examiner le rôle modérateur d’un objectif de poids apparié vs. non-apparié au poids actuel dans ces associations) permettant de répondre à l’objectif de recherche principal. Ces articles ont tous été élaborés à partir de l’analyse secondaire d’une banque de données quantitatives constituée par l’Institut de la statistique du Québec (ISQ) et nommée: Enquête sociale et de santé auprès des enfants et des adolescents québécois (ESSEA). L’ESSEA a été constitué auprès d’un échantillon populationnel et représentatif d’enfants et d’adolescent(e)s québécois(es) âgé(e)s de neuf, 13 et 16 ans. Les résultats de cette thèse indiquent qu’une insatisfaction corporelle est associée à la poursuite d’un objectif de poids non-apparié au poids actuel, ainsi qu’à l’utilisation de comportements liés au poids et à l’alimentation sains, malsains et déviants. Des associations ont également été observées entre l’objectif de poids poursuivi par un adolescent(e) et divers comportements utilisés pour l’atteindre. En effet, la poursuite d’un objectif de poids non-apparié au poids actuel est associée à l’utilisation de comportements malsains. Cette association n’est cependant pas présente en ce qui à trait à l’utilisation de comportements sains et déviants, ceux-ci étant strictement prédits par une insatisfaction corporelle. Des effets de médiation et de modération ont aussi été identifiés. Une insatisfaction corporelle est une variable de médiation entre une détresse psychologique chez les adolescentes et la poursuite d’un objectif de poids non-apparié au poids actuel. Finalement, un objectif de poids non-apparié au poids actuel est une variable modifiant l’association entre une insatisfaction corporelle et l’utilisation de comportements malsains chez les adolescent(e)s québécois(es). En conclusion, il existe diverses associations entre une insatisfaction corporelle et l’adoption de pratiques de maintien et de changement du poids chez des adolescent(e)s québécois(es). Une insatisfaction corporelle est donc une cible d’intervention pertinente pour la santé publique puisqu’elle peut servir de base à l’élaboration d’interventions visant la promotion d’un poids santé ainsi que de saines stratégies de contrôle du poids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire contient un article ayant été soumis à la Revue de Psychoéducation. Cet article a été rédigé avec comme co-auteur Michel Janosz

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude était d’évaluer et de comparer la force d’adhésion de deux résines de collage: le ClearfilTM Esthetic Cement & DC Bond Kit (C) et le RelyXTM Unicem (R), sur trois adhérents différents : une surface d’émail, un alliage de métaux non précieux (Np) et un alliage de métaux semi-précieux (Sp). La surface des échantillons des alliages métalliques a subi différents traitements de surface. Sur l’émail (n=15) ainsi que sur les plaquettes d’alliages Np et Sp (n=15), des cylindres de résine étaient appliqués et polymérisés. Suite au processus de collage, les échantillons ont été incubés à 37°C pendant 24 heures, puis ont subi 500 cycles de thermocyclage. Des tests de cisaillement ont été effectués, suivi par l’analyse de la surface des échantillons au microscope à balayage électronique. Une comparaison de type T-test et des comparaisons multiples post hoc, ont été effectuées pour l’analyse statistique (p 0,05). Sur l’émail, les résultats ont démontré que la résine C présentait une force d'adhésion moyenne statistiquement supérieure (33,97±17,18 MPa) à la résine R (10,48±11,23 MPa) (p 0,05). Le type d’alliage utilisé n’influençait pas la force d’adhésion, et ce, peu importe le type de résine de collage (p>0,05). Pour le groupe Sp, la résine C a démontré une adhésion statistiquement supérieure à la résine R, et ce, pour tous les traitements de surface (p 0,05). En conclusion, la résine C a démontré des résultats d’adhésion significativement supérieurs à la résine R sur l’émail ainsi que sur presque toutes les surfaces traitées des alliages de métaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Le gène O6-méthylguanine-ADN méthyltransferase (MGMT) code pour une enzyme spécifique réparatrice de l’ADN qui protège les cellules de la toxicité des agents alkylants. Ainsi, l’activité du MGMT est un mécanisme majeur de résistance aux agents alkylants. Il a été démontré qu’une diminution de l’expression du gène MGMT par une hyperméthylation du promoteur résulte en une amélioration de la survie chez les patients avec certains types de tumeurs qui sont traitées avec des agents chimiothérapeuthique alkylants. Objectifs: Déterminer la prévalence de la méthylation du gène MGMT chez des patients avec des cancers épidermoïdes localement avancés de la sphère ORL traités avec chimioradiothérapie et évaluer l’impact de cette méthylation sur la survie. Méthodes: Sur 428 patients consécutifs, traités avec chimioradiothérapie à notre institution et suivis pour un période médiane de 37 mois, 199 spécimens chirurgicaux paraffinés ont été récupérés. L’ADN était extrait et modifié par le traitement au bisulfite. Une réaction en chaîne de la polymérase, spécifique à la méthylation était entreprise pour évaluer l’état de méthylation du promoteur du gène du MGMT. Les résultats de laboratoire étaient corrélés avec la réponse clinique. L’analyse statistique était exécutée à l’aide du test de Fisher pour les données catégoriques et à l’aide des courbes de Kaplan-Meier pour les échecs au traitement. Résultats : Des 199 extraits d’ADN initiaux, 173 (87%) étaient modifiés au bisulfite avec succès. Des ces spécimens modifiés, 71 (41%) ont démontré une hyperméthylation du MGMT. Pour les cas de méthylation et nonméthylation du MGMT, les caractéristiques des patients n’étaient pas significativement différentes. Les taux de réponse étaient 71 et 73% (p=NS) respectivement. Le contrôle locorégional était respectivement 87 et 77% (p=0.26), la survie sans maladie était 80 et 60% (p=0.38), la survie sans métastase à distance était 92 et 78% (p=0.08) et la survie globale était 64 et 62% (p=0.99) à 3 ans. Conclusions : L’état de méthylation du MGMT est fortement prévalent (41%) et semble avoir un possible impact bénéfique sur la survie quand la chimioradiothérapie est administrée aux patients avec des stades avancés de cancers tête et cou.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thomas G. Brown, Ph.D., co-directeur de recherche

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis l’an 2000. Ainsi, il est pertinent de mieux comprendre l’infection chez les animaux de compagnie, puisqu’ils sont potentiellement un réservoir du parasite. Durant l’année 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien qu’il n’existe pas de différence significative entre la prévalence du parasite chez le chat et le chien pour l’année 2008. L’âge (p = 0,0001) et l’infection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi l’ensemble des variables testées chez le chat (l’âge, le sexe, la saison et l’infection concomitante par Giardia spp.), aucune n’a été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité d’individus testés pour cette espèce. Un suivi de l’excrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que l’excrétion des ookystes peut se faire sur une période de sept mois et que le taux d’excrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif n’a toutefois été obtenu. Afin d’augmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à l’avenir de travailler sur un nombre d’animaux beaucoup plus important.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de recherche présentés ici avaient pour objectif principal la synthèse de copolymères statistiques à base d’éthylène et d’acide acrylique (AA). Pour cela, la déprotection des groupements esters d’un copolymère statistique précurseur, le poly(éthylène-co-(tert-butyl)acrylate), a été effectuée par hydrolyse à l’aide d’iodure de triméthylsilyle. La synthèse de ce précurseur est réalisée par polymérisation catalytique en présence d’un système à base de Palladium (Pd). Le deuxième objectif a été d’étudier et de caractériser des polymères synthétisés à l’état solide et en suspension colloïdale. Plusieurs copolymères précurseurs comprenant différents pourcentages molaires en tert-butyl acrylate (4 à 12% molaires) ont été synthétisés avec succès, puis déprotégés par hydrolyse pour obtenir des poly(éthylène-coacide acrylique) (pE-co-AA) avec différentes compositions. Seuls les copolymères comprenant 10% molaire ou plus de AA sont solubles dans le Tétrahydrofurane (THF) et uniquement dans ce solvant. De telles solutions peuvent être dialysées dans l’eau, ce qui conduit à un échange lent entre cette dernière et le THF, et l’autoassemblage du copolymère dans l’eau peut ensuite être étudié. C’est ainsi qu’ont pu être observées des nanoparticules stables dans le temps dont le comportement est sensible au pH et à la température. Les polymères synthétisés ont été caractérisés par Résonance Magnétique Nucléaire (RMN) ainsi que par spectroscopie Infra-Rouge (IR), avant et après déprotection. Les pourcentages molaires d’AA ont été déterminés par combinaison des résultats de RMN et ii de titrages conductimètriques. A l’état solide, les échantillons ont été analysés par Calorimétrie différentielle à balayage (DSC) et par Diffraction des rayons X. Les solutions colloïdales des polymères pE-co-AA ont été caractérisées par Diffusion dynamique de la lumière et par la DSC-haute sensibilité. De la microscopie électronique à transmission (TEM) a permis de visualiser la forme et la taille des nanoparticules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.