571 resultados para Modélisation d’actions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PROBLÉMATIQUE La violence collective, à travers les guerres civiles et autres conflits politiques violents, constitue un lourd fardeau pour la santé publique. Plus de la moitié des décès causés par l’ensemble des conflits dans le monde entier se trouvent en Afrique. L’une des conséquences est le déplacement massif des populations qui se réfugient vers l’extérieur du pays, mais aussi de plus en plus à l’intérieur des frontières nationales. Ceux qui ne traversent pas sont appelés déplacés internes. Leur état de santé est au moins aussi vulnérable que celui de réfugiés, mais est très peu documenté. De 1993 à 2005, le Burundi a plongé dans une crise politico-sociale sans précédent. En 2001, environ 10 % de la population vivaient dans des camps de déplacés. OBJECTIF Documenter l’état de santé des personnes déplacées par la guerre au Burundi et identifier ses déterminants. CADRE CONCEPTUEL Le cadre conceptuel est basé sur la modélisation de l’association entre les événements traumatiques, les facteurs de l’environnement post-traumatique et l’état de santé des déplacés internes burundais. MÉTHODE Une enquête transversale a été menée dans deux camps de déplacés au Burundi. Les données ont été obtenues de façon rétrospective sur l’exposition aux événements traumatiques et de manière transversale pour l’état de santé et les facteurs de l’environnement post-traumatique. Les participants ont été interrogés sur les événements traumatiques vécus personnellement ou par leurs proches selon une courte échelle élaborée à cet effet. De même, les facteurs de l’environnement post-traumatique ont été documentés. Pour la mesure de l’état de santé, un questionnaire comportant certains des 17 items du profil de santé de Duke a été utilisé. Deux traductions ont été réalisées et plusieurs items ont été adaptés. RÉSULTATS Les événements traumatiques vécus par les déplacés internes burundais sont négativement associés à l’état de santé physique, à l’état de santé sociale, à l’état de santé perçu et, positivement, avec l’incapacité. De même, plusieurs facteurs de l’environnement post-traumatique sont associés à l’état de santé. Par contre, certaines associations sont à interpréter selon leurs interactions avec les événements traumatiques. Celles-ci agissent parfois comme modificateurs d’effet, en amortissant ou en amplifiant le lien associatif initial entre certains événements traumatiques et l’état de santé des déplacés. CONCLUSION : Les résultats font ressortir un effet différentiel associé d’une part aux événements traumatiques vécus précédemment et d’autre part, en interaction avec ces derniers, à l’environnement post-traumatique. Notre thèse en arrive à la conclusion que les facteurs de l’environnement post-traumatique constituent des déterminants importants de l’état de santé des déplacés de guerre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tumeur des cellules de la granulosa (GCT) représente 5% des cas de cancers ovariens chez la femme. Bien que considérées comme peu malignes, la mort survient dans 80% des cas suite à une recrudescence de la maladie. En dépit de ces statistiques sinistres, peu d’études ont été portées sur ce type de cancer. Le premier objectif de cette étude consistait à élucider les mécanismes moléculaires causant les GCT en démontrant l’implication de la voie de signalisation PI3K/AKT dans leur étiologie. Pour ce faire, nous avons employé la technologie Cre-Lox afin de cibler le gène Pten (antagoniste de cette voie) spécifiquement dans les cellules de la granulosa chez la souris. Ces souris (Ptenflox/flox;Amhr2cre/+) ont occasionnellement développé des GCT, soutenant notre hypothèse de l’importance de la voie PI3K/AKT dans leur étiologie. La voie WNT/CTNNB1 est une autre voie de signalisation qui a récemment été impliquée dans le développement des GCT. Dans le cadre de ce projet, nous avons également testé l’existence possible d’une synergie fonctionnelle entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la maladie. Pour ce faire, nous avons créé le modèle transgénique Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+, chez lequel les cellules de la granulosa présentant non seulement une désinhibition de la voie PI3K/AKT, mais aussi une suractivation de la voie WNT/CTNNB1. Tel que prédit, les souris Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+ ont développé une forme de GCT beaucoup plus agressive que celle observée chez les femelles Ptenflox/flox;Amhr2cre/+. Spécifiquement, le développement des tumeurs se déclenchait plus tôt, leur croissance était beaucoup plus rapide, nous avons pu observer des métastases pulmonaires et la dissémination des cellules tumorales dans la cavité péritonéale, et la maladie était invariablement fatale avant l’âge de 8 semaines. Le modèle Ptenflox/flox;Ctnnb1flox (ex3)/+;Amhr2cre/+ a donc servi à démontrer l'existence d'une synergie entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la GCT. De façon inattendue, les souris Ptenflox/flox;Amhr2cre/+ ont aussi présenté un phénotype de sous-fertilité qui n’était pas d’origine ovarienne. Il a récemment été démontré que la souche Amhr2cre dirige l’expression de Cre non seulement aux cellules de la granulosa, mais aussi au stroma utérin et au myomètre. Le second objectif de ce travail était donc de démontrer si et comment le phénotype d’infertilité chez les souris Ptenflox/flox;Amhr2cre/+ pouvait découler d’un défaut utérin. Lors de l'implantation, les cellules du stroma utérin se différencient en cellules déciduelles pour former la décidua maternelle (DM), qui se régresse ensuite par apoptose afin de faciliter l’invasion des cellules trophoblastiques. De plus, la DM, en collaboration avec le tissu foetal, recrute des uNKs dont le rôle est de remodeler les artères spiralées pour augmenter l’apport sanguin maternel vers le foetus en développement. Nous avons pu démontrer que l'utérus des femelles gestantes Ptenflox/flox;Amhr2cre/+ présentait une DM anormalement résistante à l'apoptose, moins de uNKs et des artères spiralées non-remodelées. Par conséquent, l’invasion des cellules du trophoblaste était restreinte, compromettant le développement et la survie de l'embryon. Nous avons donc établi pour la première fois l’importance de Pten lors de la décidualisation et de l’invasion du trophoblaste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont confirmé que certains traits de personnalité des enfants et certaines attitudes et pratiques éducatives de leurs parents constituaient des prédicteurs des comportements perturbateurs à l’adolescence. Toutefois, la majorité des recherches ont adopté un modèle postulant des relations directes et indépendantes entre ces facteurs de risque et des comportements perturbateurs. Le modèle transactionnel est plus réaliste parce qu’il postule des relations bidirectionnelles à travers le temps entre ces deux facteurs de risque. Cette étude visait à vérifier l’existence de relations bidirectionnelles entre les traits de personnalité des enfants et les attitudes parentales de leur mère mesurés à deux reprises durant l’enfance (à 6 et 7 ans), pour ensuite vérifier si les comportements perturbateurs des enfants mesurés à l’adolescence (15 ans) pouvaient être prédits par les traits de personnalité et les attitudes parentales. Les données utilisées proviennent d’une étude longitudinale prospective de 1000 garçons et 1000 filles évalués à plusieurs reprises de la maternelle à l’adolescence. Six traits de personnalité des enfants et deux attitudes parentales ont été évalués par les mères à 6 et 7 ans, alors que les diagnostics de troubles perturbateurs (trouble des conduites, trouble oppositionnel avec provocation, trouble de déficit de l’attention/hyperactivité) ont été évalués par les adolescents et les mères à 15 ans. Afin de tester les hypothèses de recherche, des analyses de cheminement (« path analysis ») multi-groupes basées sur la modélisation par équations structurales ont été utilisées. Les résultats ont confirmé la présence de relations bidirectionnelles entre les traits de personnalité de l’enfant et les attitudes parentales durant l’enfance. Toutefois, peu de relations étaient significatives et celles qui l’étaient étaient de faible magnitude. Les modèles multi-groupes ont par ailleurs confirmé la présence de relations bidirectionnelles différentes selon le sexe. En ce qui concerne la prédiction des comportements perturbateurs, de façon générale, surtout les traits de personnalité et les attitudes parentales à 6 ans (plutôt qu’à 7 ans) ont permis de les prédire. Néanmoins, peu de relations prédictives se sont avérées significatives. En somme, cette étude est une des rares à avoir démontré la présence de relations bidirectionnelles entre la personnalité de l’enfant et les attitudes parentales avec des données longitudinales. Ces résultats pourraient avoir des implications théoriques pour les modèles explicatifs des comportements perturbateurs, de même que des implications pratiques pour le dépistage des enfants à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire [de la thèse] a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche porte sur les patrons de distribution longitudinale (amont-aval) et transversale (rive nord - rive sud) des communautés de crustacés planctoniques qui ont été analysés le long du fleuve Saint-Laurent entre le lac Saint-François et la zone de transition estuarienne, à deux hydropériodes en mai (crue) et en août (étiage). Les données zooplanctoniques et environnementales ont été récoltées à 52 stations réparties sur 16 transects transversaux en 2006. Au chapitre 1, nous présentons les principaux modèles écosystémiques en rivière, une synthèse des facteurs influençant le zooplancton en rivières et les objectifs et hypothèses de recherche. Au chapitre 2, nous décrivons la structure des communautés de zooplancton dans trois zones biogéographiques du fleuve et 6 habitats longitudinaux, ainsi que les relations entre la structure du zooplancton et la distribution spatiale des masses d’eau et les variables environnementales. Au chapitre 3, nous réalisons une partition de la variation des variables spatiales AEM (basées sur la distribution des masses d’eau) et des variables environnementales pour évaluer quelle part de la variation du zooplancton est expliquée par les processus hydrologiques (variables AEM) et les conditions locales (facteurs environnementaux). Le gradient salinité-conductivité relié à la discontinuité fleuve-estuaire a déterminé la distribution à grande échelle du zooplancton. Dans les zones fluviales, la distribution du zooplancton est davantage influencée par la distribution des masses d’eau que par les facteurs environnementaux locaux. La distribution des masses d’eau explique une plus grande partie de la variation dans la distribution du zooplancton en août qu’en mai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.