571 resultados para Modélisation d’actions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-­T9, T11-­T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rôle du parent est important dans le développement de la compétence en lecture de jeunes enfants et lire à son enfant est une pratique de littératie familiale fortement encouragée par la société. Cette étude a pour objectif de décrire cet accompagnement parental notamment en lien avec les stratégies de compréhension utilisées entre un parent et son enfant lors de la lecture à voix haute. Nous avons observé 10 parents lire un abécédaire, un texte narratif avec intrigue, un texte narratif sans intrigue et un texte informatif à leur enfant de cinq ans. Il s’avère que les stratégies utilisées par les parents et leurs enfants diffèrent selon le genre de texte. Les élèves ayant de faibles résultats (reconnaissance des lettres et de leurs sons, rappel du texte, compréhension du vocabulaire réceptif et de la morphosyntaxe) utilisent également moins de stratégies de compréhension lors de la lecture à voix haute que les enfants présentant de meilleurs résultats. Nous avons également vérifié l’étayage offert par les parents d’enfants présentant de bonnes et de faibles compétences en lecture. Ces deux groupes de parents se distinguent par la qualité et la fréquence de l’utilisation des stratégies de compréhension. En effet, nous remarquons que les parents qui guident leurs enfants dans l’utilisation des stratégies de compréhension sont davantage associés aux enfants démontrant une bonne compétence en lecture. Finalement, nous avons aussi vérifié les pratiques de littératie familiale (temps d’exposition et accessibilité à la lecture, modélisation par les membres de la famille, attitude des parents envers la lecture et mise en place d’activité favorisant la conscience phonologique de l’enfant). Seule la mise sur pied d’activités favorisant la conscience phonologique a pu être liée au rendement des enfants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atout pour la mise en œuvre, atout pour l’évaluation et de manière plus évidente atout pour la motivation, le jeu sérieux se veut une solution pédagogique pertinente dans un contexte d’éducation formel ou informel. Au niveau de la recherche, on peut se questionner quant à la valeur pédagogique d’une telle approche ainsi que sur ses principaux atouts. Dans notre projet, nous nous sommes intéressés plus particulièrement à l’apport du scénario pédagogique dans un jeu sérieux. En utilisant le jeu vidéo Mecanika, développé dans le cadre d’une maîtrise en didactique à l’UQAM et basé sur un questionnaire reconnu permettant d’identifier les conceptions des élèves en mécanique, le Force Concept Inventory (HESTENES et al., 1992), nous tenterons d’extraire l'élément principal du scénario pédagogique afin d’en évaluer l’effet sur l’apprentissage. Notre méthodologie a permis de comparer les performances d’élèves de cinquième secondaire ayant utilisé deux versions différentes du jeu. Dans un premier temps, les résultats obtenus confirment ceux observés par Boucher Genesse qui étaient déjà supérieurs à ceux habituellement cités dans les recherches impliquant le FCI. Nous avons aussi observé qu’il semble exister une relation significative entre le plaisir à jouer et l’apprentissage, ainsi qu’une relation significative entre le nombre d’interactions et la version du jeu sur le gain, ce qui confirme que le jeu produit un effet qui s’ajoute à celui du professeur. La présence d’étoiles dans le jeu original a suscité plus d’actions des élèves que la version orientée simulation qui en est démunie, ce qui semble indiquer que l’utilisation d’un jeu sérieux favorise l’implication des élèves. Cependant, l’absence d’effet significatif associé à la suppression des étoiles indique que la scénarisation n’est peut-être pas la principale cause des apprentissages observés dans le jeu Mecanika. Le choix des autres éléments présents dans chaque tableau doit aussi être considéré. Des recherches futures seraient nécessaires pour mieux comprendre ce qui favorise les apprentissages

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’instar de plusieurs systèmes de santé, les centres hospitaliers québécois ont amorcé l’informatisation du dossier patient sous forme papier pour la transition vers un dossier clinique informatisé (DCI). Ce changement complexe s’est parfois traduit par des répercussions sur les pratiques de soins, la sécurité et la qualité des soins offerts. L’adoption de la part des utilisateurs de technologies de l’information (TI) est considérée comme un facteur critique de succès pour la réalisation de bénéfices suite au passage à un DCI. Cette étude transversale multicentrique avait pour objectifs d’examiner des facteurs explicatifs de l’adoption, de l’utilisation réelle d’un DCI, de la satisfaction des infirmières et de comparer les résultats au regard du sexe, de l’âge, de l’expérience des infirmières et des stades de déploiement du DCI. Un modèle théorique s’appuyant sur la Théorie unifiée de l’adoption et de l’utilisation de la technologie a été développé et testé auprès d’un échantillon comptant 616 infirmières utilisant un DCI hospitalier dans quatre milieux de soins différents. Plus particulièrement, l’étude a testé 20 hypothèses de recherche s’intéressant aux relations entre huit construits tels la compatibilité du DCI, le sentiment d’auto-efficacité des infirmières, les attentes liées à la performance, celles qui sont liées aux efforts à déployer pour adopter le DCI, l'influence sociale dans l’environnement de travail, les conditions facilitatrices mises de l’avant pour soutenir le changement et ce, relativement à l’utilisation réelle du DCI et la satisfaction des infirmières. Au terme des analyses de modélisation par équations structurelles, 13 hypothèses de recherche ont été confirmées. Les résultats tendent à démontrer qu’un DCI répondant aux attentes des infirmières quant à l’amélioration de leur performance et des efforts à déployer, la présence de conditions facilitatrices dans l’environnement de travail et un DCI compatible avec leur style de travail, leurs pratiques courantes et leurs valeurs sont les facteurs les plus déterminants pour influencer positivement l’utilisation du DCI et leur satisfaction. Les facteurs modélisés ont permis d’expliquer 50,2 % de la variance des attentes liées à la performance, 52,9 % des attentes liées aux efforts, 33,6 % de l’utilisation réelle du DCI et 54,9 % de la satisfaction des infirmières. La forte concordance du modèle testé avec les données de l’échantillon a notamment mis en lumière l’influence des attentes liées à la performance sur l’utilisation réelle du DCI (r = 0,55 p = 0,006) et sur la satisfaction des infirmières (r = 0,27 p = 0,010), des conditions facilitatrices sur les attentes liées aux efforts (r = 0,45 p = 0,009), de la compatibilité du DCI sur les attentes liées à la performance (r = 0,39 p = 0,002) et sur celles qui sont liées aux efforts (r = 0,28 p = 0,009). Les nombreuses hypothèses retenues ont permis de dégager l’importance des effets de médiation captés par le construit des attentes liées à la performance et celui des attentes liées aux efforts requis pour utiliser le DCI. Les comparaisons fondées sur l’âge, l’expérience et le sexe des répondants n’ont décelé aucune différence statistiquement significative quant à l’adoption, l’utilisation réelle du DCI et la satisfaction des infirmières. Par contre, celles qui sont fondées sur les quatre stades de déploiement du DCI ont révélé des différences significatives quant aux relations modélisées. Les résultats indiquent que plus le stade de déploiement du DCI progresse, plus on observe une intensification de certaines relations clés du modèle et une plus forte explication de la variance de la satisfaction des infirmières qui utilisent le DCI. De plus, certains résultats de l’étude divergent des données empiriques produites dans une perspective prédictive de l’adoption des TI. La présente étude tend à démontrer l’applicabilité des modèles et des théories de l’adoption des TI auprès d’infirmières œuvrant en centre hospitalier. Les résultats indiquent qu’un DCI répondant aux attentes liées à la performance des infirmières est le facteur le plus déterminant pour influencer positivement l’utilisation réelle du DCI et leur satisfaction. Pour la gestion du changement, l’étude a relevé des facteurs explicatifs de l’adoption et de l’utilisation d’un DCI. La modélisation a aussi mis en lumière les interrelations qui évoluent en fonction de stades de déploiement différents d’un DCI. Ces résultats pourront orienter les décideurs et les agents de changement quant aux mesures à déployer pour optimiser les bénéfices d’une infostructure entièrement électronique dans les systèmes de santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rôle des deux paires de bases universelles inverse Hoogsteen U : A ( RHUAs ) présentent chez les ARNt standards , une dans la boucle T et l'autre dans le noyau de la forme en L , a été étudiée. Pour chacun des RHUAs , un criblage génétique spécialisé in vivo chez les bactéries , le système suppresseur ambre ( pour l'étude de la RHUA dans la boucle T ) et le système d'ARNt de la sélénocystéine ( tRNASec ) ( pour l'étude de la RHUA dans le noyau ) , ont été utilisé pour générer des variants fonctionnels à partir de multiples librairies combinatoires . Ces variants ont ensuite été séquencé et soumis à une analyse systématique qui comprend la modélisation informatique et un type d'analyse phylogénétique. Les résultats du système suppresseur ambre ont montré un ensemble de variants fonctionnels qui ne nécessitent pas le motif RHUA dans la boucle T et qui ont remplacé la méthode standard de l'interaction entre les boucles D et T avec une double hélice interboucle , ILDH . D'autres études ont abouti à la détermination d'un modèle In silico de l'alternative à la norme standard de la boucle T, sous le nom de type III . Les résultats du système tRNASec ont révélé que pour cette ARNt exceptionnel, l'absence de RHUA ( dans le noyau ) assure une flexibilité accrue qui est spécifiquement nécessaire pour la fonction de tRNASec . Ainsi, les ARNt standards , à la différence de tRNASec , avec la présence universelle de RHUA dans le noyau , a été naturellement sélectionnée pour être rigide . Pris ensemble, la RHUA joue un rôle essentiel dans la stabilisation des interactions tertiaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une analyse du discours et de l’expérience corporelle des adeptes de la scène musicale électronique underground-house de Montréal. Il cherche à contribuer au champ des études sur les formations culturelles expressives contemporaines sur deux axes. Sur le plan méthodologique, cette recherche illustre la portée de l’entretien d’explicitation lorsqu’il s’agit d’accompagner la mise en mots d’impressions sensorielles, d’émotions, de pensées ou d’actions. Combinée à une démarche immersive de longue haleine sur le terrain, cette méthode innovante développée par le chercheur Pierre Vermersch (1994) s’avère ici un outil rigoureux donnant accès à la mémoire incarnée des sujets, laquelle regorge d’informations d’une étonnante précision. Sur le plan ethnographique, cette étude s’intéresse aux nouveaux espaces de solidarité et d’expression balisant l’expérience des Québécois de parents haïtiens issus des classes moyenne et moyenne élevée. Les résultats de cette recherche démontrent, en premier lieu, que l’expérience de la « vibe », expression idiomatique largement utilisée par les acteurs, constitue la clé de voûte maintenant la cohésion entre les représentations, les croyances et les activités corporelles des participants. En deuxième lieu, la scène underground-house se présenterait comme l’expression d’une nouvelle contre-culture en établissant une distance critique avec, d’une part, la « culture hip hop » commerciale et sa représentation médiatique « ghettoïsée » et, d’autre part, l’espace culturel dominant en promouvant une expérience de corps et d’esprit subversive. Cet espace de transmission et de communion inédit propose des modèles de sociabilités nouveaux qui contribuent de manière inusuelle au dialogue interculturel urbain montréalais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En raison des présentes transformations du marché du travail, le mouvement syndical est à la recherche d’un nouvel équilibre. Dans ce contexte plutôt changeant, réorganisations et flexibilité se négocient en échange d’une protection accrue pour ceux qui demeurent en emploi. Si d’une part, ceci mène à une prolifération de nouvelles formes d’emploi atypiques et de disparités de traitement, d’autre part la constitutionnalisation du droit du travail change le rapport quant à l’universalisme syndical. Nous nous sommes alors interrogée sur les impacts que cela peut avoir sur le devoir syndical de représentation. Prenant cela en considération, nous avons voulu au cours de notre recherche faire la lumière tant sur certains impacts de la négociation de clauses de disparité de traitement dans les milieux de travail syndiqués que sur les défis contemporains du droit du travail et de l’emploi. Cette thèse propre au champ d’études que sont les relations industrielles se distingue des autres recherches dans le même domaine en se concentrant sur l’effet empirique de la mise en œuvre d’une norme, par l’étude de deux cas suggestifs. Plus précisément, notre thèse avait comme principal objectif de répondre à la question suivante : Quels sont les effets sur l’acteur (action) syndical du recours à la norme d’égalité, à la suite la négociation de clauses « orphelin »? Pour y parvenir, nous avons dû reconstituer comment les acteurs syndicaux s’étaient approprié l’espace ouvert par la constitutionnalisation du droit du travail. Nous avons utilisé une méthode qualitative, impliquant une revue de la littérature sociohistorique, théorique et juridique, une analyse de la jurisprudence existant à ce sujet et l’étude de deux cas portant sur la négociation d’une clause « orphelin » le tout représentant soixante entrevues semi-dirigées dans plusieurs casernes et palais de justice. Les connaissances acquises permettent au plan empirique une meilleure compréhension des interactions possibles entre acteurs, institutions et stratégies lors de la mise en œuvre de la norme d’égalité ainsi que des déterminants de l’action (ou de l’inaction) syndicale. Sur le plan pratique, nous espérons que notre thèse puisse guider toute personne ou tout groupe de personnes désirant mettre en œuvre des mesures égalitaires, tant pour éviter certains écueils reliés à ces actions ou réactions suscitées par la mise en œuvre du droit à l’égalité, que pour mesurer l’efficacité des actions entreprises. De surcroît, sur le plan théorique, nous croyons que de mettre à l’épreuve un modèle théorique recoupant stratégies et institutions permettra d’aborder les problèmes à la fois au niveau de l’acteur et au niveau structurel. Les résultats obtenus aident à comprendre en quoi et comment peut se construire l’action syndicale dans certains (2) cas de mise en œuvre de la norme d’égalité. Le choix de différentes stratégies ne peut pas être dissocié des différents contextes économiques, sociaux et juridiques, ni des capacités stratégiques des différents acteurs en cause. Les principales contraintes identifiées ont pu être imputées tant aux structures de l’association syndicale qu’aux différents univers normatifs mobilisés. Les sources de tensions vécues dans les milieux à l’étude ont été rattachées notamment aux perceptions d’injustice et à la méconnaissance des différentes normes juridiques. En conséquence, il faut conclure que pour les associations syndicales (sans se restreindre à celles à l’étude), la question d’iniquité pourrait avoir de graves conséquences et non seulement sur le devoir de représentation. Nous avons spécialement souligné la fragilisation de leurs assises, dans leurs deux pôles d’actions : d’acteur économique (faille dans la capacité d’action traditionnelle) et d’acteur politique (climat hostile au syndicalisme). Nous souhaitons que l’acteur syndical puisse mobiliser, à la lumière des résultats de notre recherche, des arguments concourant à repenser l’action syndicale, que nous croyons être plus pertinente que jamais. Nous croyons également que les différents acteurs du monde du travail pourraient s’approprier certaines de nos recommandations afin de favoriser une citoyenneté au travail plus inclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.