1000 resultados para Modélisation par homologie
Resumo:
Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.
Resumo:
Ce travail a pour objectif d'étudier l'évolution du métier de médecin de premier recours à la lumière du réel de son activité. Afin de pallier les lacunes de la littérature, nous proposons d'investiguer les perceptions et les pratiques rapportées de médecins de premier recours, considérant leur activité comme située dans un contexte spécifique. Un cadre théorique multiréférencé, intégrant les apports de Bischoff (2012), de la théorie de l'activité (Engeström et al., 1999), de l'ergonomie (Daniellou, 1996 ; Falzon, 2004a; Leplat, 1997) et de certains courants de la psychologie du travail (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) permet de tenir compte de la complexité du travail des médecins de premier recours. Une méthodologie mixte, alliant une approche qualitative par entretiens semi-structurés (n=20) à une approche quantitative par questionnaire (n=553), a été développée. Les résultats de l'analyse thématique des entretiens mettent en évidence trois thèmes majeurs : l'Evolution du métier (Thème 1), caractérisé par les changements perçus, les demandes des populations qui consultent et les paradoxes et vécus des médecins ; les Ajustements et supports (Thème 2) mis en place par les médecins pour faire face aux changements et aux difficultés de leur métier ; les Perceptions et les attentes par rapport au métier (Thème 3), mettant en avant des écarts perçus entre la formation et la réalité du métier. La partie quantitative permet de répondre aux questionnements générés à partir des résultats qualitatifs et de généraliser certains d'entre eux. Suite à l'intégration des deux volets de l'étude, nous présentons une nouvelle modélisation du métier de médecin de premier recours, soulignant son aspect dynamique et évolutif. Cette modélisation rend possible l'analyse de l'activité réelle des médecins, en tenant compte des contraintes organisationnelles, des paradoxes inhérents au métier et du vécu des médecins de premier recours. L'analyse des limites de cette étude ouvre à de nouvelles perspectives de recherche. A l'issue de ce travail, nous proposons quelques usages pragmatiques, qui pourront être utiles aux médecins de premier recours et aux médecins en formation, non seulement dans la réalisation de leur activité, mais également pour le maintien de leur équilibre et leur épanouissement au sein du métier. - This study aims to investigate the evolution of primary care physicians' work, in the light of the reality of their activity. In order to overcome the limitations of the literature, we propose to focus on primary care physicians' reported perceptions and practices, considering their activity as situated in a specific context. The theoretical framework refers to Bischoff (2012), Activity theory (Engeström et al., 1999), ergonomy (Daniellou, 1996; Falzon, 2004a; Leplat, 1997) and work psychology (Curie et al., 1990 ; Curie, 2000b ; Malrieu, 1989) and enables to take into account the complexity of primary care physicians' work. This mixed methods study proposes semi-structured interviews (n=20) and a questionnaire (n=553). Thematic analysis of interviews points out three major themes : Evolution of work (Theme 1) is characterised by perceived changes, patients' expectations and paradoxes ; Adjustments and supports (Theme 2), that help to face changes and difficulties of work ; Perceptions related to work, including differences between work reality as represented during medical education/training and actual work reality. Quantitative part of the study enables to answer questions generated from qualitative results and to generalise some of them. Integration of qualitative and quantitative results leads to a new modelling of primary care physicians ' work, that is dynamic and evolutionary. This modelling is useful to analyse the primary care physicians' activity, including organisational constraints, paradoxes of work and how primary care physicians are experiencing them. Despite its limitations, this study offers new research perspectives. To conclude, we state pragmatic recommendations that could be helpful to primary care physicians in private practice and junior doctors, in order to realise their activity, to maintain their balance and to sustain their professional fulfilment.
Resumo:
RESUME Les bétalaïnes sont des pigments chromo-alcaloïdes violets et jaunes présents dans les plantes appartenant à l'ordre des Caryophyllales et dans les champignons des genres Amanita et Hygrocybe. Leur courte voie de biosynthèse est élucidée chimiquement depuis de nombreuses années, mais les enzymes impliquées dans cette biosynthèse chez les plantes ne sont toujours pas caractérisées. L'enzyme de la DOPA-dioxygénase d' Amanita muscaria a été identifiée (Girod et Zryd, 1991a), mais de nombreuses tentatives d'isolation d'un homologue chez les plantes ont échoué. Afin d'isoler les gènes spécifiques des bétalaïnes chez les plantes, nous avons construit des banques soustraites d'ADNc à partir d'ARN total de pétales immatures de Portulaca grandiflora (Pg) de génotypes jaunes et blancs, respectivement violets et blancs. Les clones couleur- spécifiques ont été détectés en premier par analyse Northem du RNA de pétales blancs et colorés. Les candidats positifs ont alors été soumis à une analyse de transcription au niveau des tiges colorées, vertes et des feuilles, afin d'établir leur expression spécifique. Deux ARNs messagers complets ont une expression corrélée avec l'accumulation des bétalaïnes dans les tissus. Le premier de ces clones, A.16, code pour une oxydase de l'acyl-Coenzyme A (ACX) putative, mais le domaine de liaison du FAD essentiel pour l'activité d'ACX est absent. Toutes nos tentatives pour démontrer sa fonction ont échoué. Le rôle de cette protéine dans la voie de synthèse des bétalaïnes reste inconnu. Le deuxième de ces clones spécifique aux bétalaïnes, L.6 (isolé par Zaiko, 2000), a été renommé DODA en raison de son homologie avec le domaine LigB (pfam02900) d'une 4,5-dioxygénase extradiol bactérienne. DODA a été identifié in silico comme une dioxygénase extradiol en raison de la conservation stricte, au niveau de sa séquence peptidique, des résidus catalytiques de LigB et de ceux liant le cofacteur fer. Une analyse de transfert Southem a montré que ce gène est unique dans Pg. L'expression transitoire de DODA par transformation biolistique dans des pétales blancs de Pg a produit des taches violettes ou jaunes dans des cellules transformées. Une analyse HPLC de ces taches a démontré leur identité avec les bétalaïnes présentes naturellement dans les pétales violets et jaunes de Pg, confirmant ainsi la complémentation par le gène Pg DODA de l'allèle récessif cc présent dans les pétales blancs de Pg. Des homologues de DODA (DOPA-dioxygénase) ont été identifiés dans de nombreuses espèces de plantes, y compris dans celles sans bétalaïne. L'alignement de ces homologues a permis l'identification d'un motif spécifique aux bétalaïnes à côté d'une histidine catalytique conservée. Ce motif [H-P-(S,A)-(N,D)-x-T-P] remplace le motif [H-N-L-R] conservé dans les plantes sans bétalaïne et le motif [H-N-L-x] présent dans tous les homologues bactériens et archaebactériens. Une modélisation tridimensionnelle préliminaire du site actif de Pg DODA et de son homologue dans la mousse Physcomitrella patens a montré l'importance de ce motif spécifique aux bétalaïnes pour l'accessibilité du substrat au site actif. L'analyse phylogénétique de DODA a confirmé l'évolution séparée de cette protéine chez les plantes à bétalaïnes par comparaison avec celle des plantes sans bétalaïne. Nous avons donc conclu que les bétalaïnes sont apparues par modification de l'affinité pour un substrat d'enzymes similaires à DODA, chez un ancêtre unique des Caryophyllales qui a perdu toute capacité de biosynthèse des anthocyanes. Finalement, Pg DODA n'a aucune similarité avec la protéine DODA d' Amanita muscaria, bien que celle-ci complémente aussi la pigmentation des pétales blancs de Pg. La biosynthèse des bétalaïnes est un exemple remarquable de convergence évolutive biochimique indépendante entre espèces de règnes différents. ABSTRACT Betalains are violet and yellow chromo-alkaloid pigments present in plants belonging to the order Caryophyllales and also in the fungal genera Amanita and Hygrocybe. Their short biosynthetic pathway is chemically well understood since many years, but enzymes involved in the plant pathway are still uncharacterized. The DOPA-dioxygenase from Amanita muscaria was identified (Girod and Zryd, 1991a), but numerous attempts to identify a plant homologue to the corresponding gene, failed. In order to isolate betalain-specific genes in plants, subtractive cDNA libraries were built with total RNA from white and yellow and respectively, violet immature petals from Portulaca grandiflora (Pg) genotypes. Colour-specific clones were first detected by Northern blot analysis using RNA from white and coloured petals. Positive candidates were submitted to further transcription analysis in coloured, green stems and leaves in order to assess their specific expression. Two full-length mRNAs showed a correlated expression with betalain accumulation in tissues. One of them, A.16, encodes a putative acyl-Coenzyme A oxidase (ACX), but missing the FAD binding domain essential for the ACX activity. Thus, all attempts to demonstrate its function failed. The role of this protein in the betalain biosynthesis pathway, if any, is still unknown. The second betalain-specific mRNA, L.6 (isolated by Zaiko, 2000) shows a homology with a LigB domain (pfam02900) from a bacterial extradiol 4,5-dioxygenase. It was then renamed DODA (DOPA-dioxygenase). DODA was identified in silico as a highly conserved extradiol dioxygenase due to the strict conservation of its peptidic sequence with LigB catalytic residues and iron-binding cofactor residues. Southern blot analysis showed that this gene is a single copy-gene in Pg. Transient expression of DODA protein through biolistic transformation of Pg white petals produced violet or yellow spots in individual cells. HPLC analysis of these spots showed an identity with betalain pigments present naturally in yellow and violet Pg petals, thus confirming the complementation of the recessive cc allele present in Pg white petals by Pg DODA gene. DODA homologues were identified in numerous plant species including those without betalain. Alignment of these homologues allowed the identification of a betalain-specific pattern beside a highly conserved catalytic histidine. This [H-P-(S,A)-(N,D)-x-T-P] pattern replaces a [H-N-L-R] pattern strictly conserved in non-betalain plants and a [H-N-L-x] pattern present in all bacterial and archaebacterial homologues. Preliminary three-dimensional modeling of the active site of Pg DODA and its Physcomitrella patens moss homologue revealed the importance of this betalain-specific pattern for the substrate accessibility to the DODA active site. DODA phylogenetic analysis confirmed the separate evolution of this protein in betalain-producing plants. We conclude that betalain pigments appeared in a unique ancestor of the Caryophyllales order in which anthocyanin biosynthetic pathway was impaired, by a modification of enzymes of the DODA family for substrate affinity. The Pg DODA protein has no sequence similarity with Amanita muscaria DODA, despite the fact that they both complement Pg white petals for their pigmentation. Betalain biosynthesis is an interesting example of independent biochemical evolutionary convergence between species from different kingdoms.
Resumo:
Un atout majeur des organisations consiste en leur capacité à créer et exploiter l’information et les connaissances, capacité déterminée entre autres par les comportements informationnels. Chargés de décisions stratégiques, tactiques et opérationnelles, les cadres intermédiaires sont au cœur du processus de création des connaissances, et leurs comportements informationnels doivent être soutenus par des systèmes d’information. Toutefois, leurs comportements informationnels sont peu documentés. La présente recherche porte sur la modélisation des comportements informationnels de cadres intermédiaires d’une organisation municipale. Plus spécifiquement, elle examine comment ces cadres répondent à leurs besoins d’information courante dans le contexte de leurs activités de gestion, c’est-à-dire dans leur environnement d’utilisation d’information. L’étude répond aux questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles font face les cadres intermédiaires municipaux ? (2) Quels sont les besoins informationnels exprimés par les cadres intermédiaires municipaux lors de situations problématiques ? (3) Quelles sont les sources d’information qui soutiennent les comportements informationnels des cadres intermédiaires municipaux ? Cette recherche descriptive s’inscrit dans une approche qualitative. Les 21 cadres intermédiaires ayant participé à l’étude proviennent de deux arrondissements d’une municipalité québécoise fusionnée en 2002. Les modes de collecte de données sont l’entrevue en profondeur en personne et l’observation directe auprès de ces cadres, et la collecte de documentation pertinente. L’incident critique est utilisé comme technique de collecte de données et comme unité d’analyse. Les données recueillies font l’objet d’une analyse de contenu qualitative basée sur la théorisation ancrée. Les résultats indiquent que les rôles de gestion proposés dans les écrits pour les cadres supérieurs s’appliquent aussi aux cadres intermédiaires, bien que le rôle conseil ressorte comme étant particulier à ces derniers. Ceux-ci ont des responsabilités de gestion aux trois niveaux d’intervention opérationnel, tactique et stratégique, bien qu’ils œuvrent davantage au plan tactique. Les situations problématiques dont ils sont chargés s’inscrivent dans l’environnement d’utilisation d’information constitué des composantes suivantes : leurs rôles et responsabilités de gestion et le contexte organisationnel propre à une municipalité en transformation. Les cadres intermédiaires ont eu à traiter davantage de situations nouvelles que récurrentes, caractérisées par des sujets portant principalement sur les ressources matérielles et immobilières ou sur des aspects d’intérêt juridique, réglementaire et normatif. Ils ont surtout manifesté des besoins pour de l’information de nature processuelle et contextuelle. Pour y répondre, ils ont consulté davantage de sources verbales que documentaires, même si le nombre de ces dernières reste élevé, et ont préféré utiliser des sources d’information internes. Au plan théorique, le modèle de comportement informationnel proposé pour les cadres intermédiaires municipaux enrichit les principales composantes du modèle général d’utilisation de l’information (Choo, 1998) et du modèle d’environnement d’utilisation d’information (Taylor, 1986, 1991). L’étude permet aussi de préciser les concepts d’« utilisateur » et d’« utilisation de l’information ». Au plan pratique, la recherche permet d’aider à la conception de systèmes de repérage d’information adaptés aux besoins des cadres intermédiaires municipaux, et aide à évaluer l’apport des systèmes d’information archivistiques à la gestion de la mémoire organisationnelle.
Resumo:
Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.
Resumo:
Les progrès spectaculaires réalisés dans le traitement de la fibrose kystique font en sorte qu'un nombre de plus en plus élevé de familles comptant un adolescent atteint de ce problème de santé, peut maintenant envisager d'effectuer la transition depuis l'adolescent vers l'âge adulte. À ce jour, les recherches à ce sujet demeurent peu nombreuses, principalement en ce qui a trait à la nature des interations entre les adolescents, leurs parents et les professionnels de la santé qui préparent ces familles en vue du transfert, depuis un établissement pédiatrique vers un établissement adulte. L'appréhension de ce phénomène s'est réalisée dans une perspective constructiviste et systémique, ce qui a permis de mettre en relief certaines des multiples facettes du phénomène et de jeter un éclairage novateur sur des dynamiques entre les membres de la famille et entre ces derniers et les professionnels de la santé. Le but de cette étude de cas, de type qualitavive, était de modéliser de manière systémique, le processus de transtion pour des familles ayant un adolescent atteint de la fibrose kystique qui est en phase pré transfert, depuis l'établissement pédiatrique vers le milieu adulte. Des entretiens semi-dirigés ont été réalisés avec sept familles comptant un adolescent atteint de la fibrose kystique. De plus, un entretien de groupe a également été effectué avec une équipe interprofessionnelle oeuvrant dans une clinique qui traite des adolescents atteints de la fibrose kysitque. L'analyse qualitative des données a mené au développement d'un modèle systémique de la transition pour ces familles. Ce modèle souligne qu'en évoluant de façon parallèle, les familles et les professionnels de la santé poursuivent la même finalité de favoriser le développement de l'autonomie de l'adolescent. Ce processus de transition chez ces familles s'inscrit, par ailleurs, dans un espace-temps signifié par le transfert inter-établissements, avec peu de considération pour la souffrance parentale liée au pronostic de la maladie. Ainsi, le développement de l'autonomie est marqué par la confiance qui doit s'établir entre l'adolescent et son parent, en passant par la surveillance du parent envers l'adolescent et par la responsabilisation graduelle chez ce dernier. Cette étude propose donc une modélisation systémique de ce processus de transition qui contribue non seulement au développement du concept de la transition en sciences de la santé, mais aussi de la pratique clinique et de la recherche dans le domaine des soins à la famille aux prises avec un adolescent atteint de la fibrose kystique.
Resumo:
L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.
Resumo:
Bien que partageant une homologie structurelle évidente, les membres antérieurs (MA) sont toujours différents des membres postérieurs (MP). Ceci suggère l’existence d’un programme générique de formation d’un membre, un bauplan, qui doit être modulé de façon spécifique pour engendrer cette différence antéro-postérieure de l’identité. Nous avons donc voulu identifier les mécanismes déployés durant l’évolution pour permettre la mise en place de l’identité des membres. Le laboratoire avait précédemment caractérisé, chez les souris où le gène Pitx1 est inactivé, une transformation partielle des MP en MA couplée à une perte de croissance. Nous avons donc cherché à comprendre les mécanismes en aval de Pitx1 dans la détermination de l’identité postérieure. Notre démarche nous a permis d’identifier les gènes affectés par la perte de Pitx1 dans les MP, où nous avons confirmé une dérégulation de l’expression de Tbx4. Tbx4 et Tbx5 sont des candidats évidents pour déterminer l’identité, leur expression étant restreinte aux MP et MA, respectivement, mais leur implication dans ce processus était sujette à controverse. Nous avons donc évalué l’apport de Tbx4 en aval de Pitx1 dans les processus d’identité en restaurant son expression dans les MP des souris Pitx1-/-. Ce faisant, nous avons pu montrer que Tbx4 est capable de pallier la perte de Pitx1 dans le MP, en rétablissant à la fois les caractères d’identité postérieure et la croissance. En parallèle, nous avons montré que Tbx5 était capable de rétablir la croissance mais non l’identité des MP Pitx1-/-, démontrant ainsi de façon définitive une propriété propre à Tbx4 dans la détermination de l’identité des membres postérieure. La caractérisation de l’activité transcriptionnelle de Tbx4 et Tbx5 nous a permis de mettre en évidence un domaine activateur conservé mais aussi un domaine spécifique à Tbx4, répresseur de la transcription. Par ailleurs, une mutation faux-sens de TBX4 dans les patients atteints du syndrome coxo-podo-patellaire, TBX4Q531R, inactive le domaine répresseur, empêchant la compensation de l’identité mais non de la croissance des MP dépourvus de Pitx1, démontrant l’importance de cette fonction dans l’identité postérieure. La caractérisation de l’activité répressive de Tbx4, qui se manifeste seulement dans les membres postérieurs démontre l’importance de cette fonction dans l’identité postérieure. Nous avons aussi été en mesure d’identifier un corépresseur qui est suffisant pour supporter cette activité de Tbx4. Enfin, nous avons pu aussi démontrer l’activité transcriptionnelle d’un représentant du gène ancestral, présent chez Amphioxus, qui se comporte strictement comme un activateur et semble dépourvu du domaine répresseur. En somme, nous avons précisé le rôle de Tbx4 et Tbx5, ainsi que leur mécanisme, dans la détermination de l’identité des membres. Globalement, nos travaux permettent d’élaborer une théorie où une divergence d’activité transcriptionnelle de Tbx4 et Tbx5 est responsable de l’identité des membres et même entrevoir que cette divergence d’activité soit à la base de son apparition durant l’évolution.
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Les gènes codant pour des protéines peuvent souvent être regroupés et intégrés en modules fonctionnels par rapport à un organelle. Ces modules peuvent avoir des composantes qui suivent une évolution corrélée pouvant être conditionnelle à un phénotype donné. Les gènes liés à la motilité possèdent cette caractéristique, car ils se suivent en cascade en réponse à des stimuli extérieurs. L’hyperthermophilie, d’autre part, est interreliée à la reverse gyrase, cependant aucun autre élément qui pourrait y être associé avec certitude n’est connu. Ceci peut être dû à un déplacement de gènes non orthologues encore non résolu. En utilisant une approche bio-informatique, une modélisation mathématique d’évolution conditionnelle corrélée pour trois gènes a été développée et appliquée sur des profils phylétiques d’archaea. Ceci a permis d’établir des théories quant à la fonction potentielle du gène du flagelle FlaD/E ainsi que l’histoire évolutive des gènes lui étant liés et ayant contribué à sa formation. De plus, une histoire évolutive théorique a été établie pour une ligase liée à l’hyperthermophilie.
Resumo:
Peu de femmes atteignent la recommandation internationale d’un allaitement exclusif d’une durée minimale de 6 mois malgré ses nombreux bienfaits pour l’enfant et pour la mère. Une raison fréquemment mentionnée pour la cessation précoce de l’allaitement ou l’introduction de préparations commerciales pour nourrissons est l’insuffisance de lait. L’origine de cette perception maternelle demeure toujours inexpliquée bien que sa prévalence dans les écrits soit bien documentée. L’insuffisance lactée relève-t-elle de pratiques d’allaitement qui contreviennent au processus physiologique de la lactation ou relève-t-elle d’un manque de confiance maternelle dans sa capacité d’allaiter? Une meilleure compréhension des déterminants de la perception d’insuffisance lactée (PIL) s’avère primordiale, un manque d’interventions infirmières permettant de prévenir, dépister et soutenir les femmes allaitant percevant une insuffisance lactée ayant été identifié. Cette étude visait à déterminer l’apport explicatif de variables biologiques et psychosociales de 252 femmes primipares allaitant sur une PIL. Une modélisation de facteurs associés à la PIL a été développée à l’aide de l’approche synthèse théorique comportant les variables suivantes: les événements entourant la naissance, les capacités infantiles et maternelles, la supplémentation, le sentiment maternel d’efficacité en allaitement, la PIL et les pratiques d’allaitement. Afin de mieux comprendre comment se développe et évolue la PIL, un devis prédictif confirmatif longitudinal a été privilégié de la naissance à la 6e semaine postnatale. Au T1, soit le premier 24 heures suivant la naissance, les participantes ont complété un questionnaire concernant leur intention d’initier et de maintenir un allaitement exclusif pour une durée de 6 mois. Au T2, soit la 3e journée postpartum, les femmes complétaient un 2e questionnaire regroupant les différentes mesures utilisées pour l’étude des variables de la modélisation PIL, incluant le prélèvement d’un échantillon de lait maternel. À la 2e semaine, soit le T3, les femmes complétaient un questionnaire similaire à celui du T2, lequel était envoyé par la poste. Finalement, au T4, soit à la 6e semaine, une entrevue téléphonique semi-dirigée concernant les pratiques d’allaitement a été réalisée. La vérification des hypothèses s’est faite principalement à l’aide de tests de corrélations de Pearson, d’analyses de régressions et d’équations structurelles. Les résultats indiquent une influence simultanée des capacités infantiles et du sentiment maternel d’efficacité en allaitement sur la PIL au T2 et au T3; le sentiment maternel d’efficacité en allaitement exerçant de surcroit un effet médiateur entre les capacités infantiles et la perception d’insuffisance lactée au T2 et au T3. Au T2, la fréquence des tétées est associée à une diminution du taux de Na+ du lait maternel, marqueur biologique de l’établissement de la lactogenèse II. Des interventions ciblant le développement d’un sentiment maternel élevé d’efficacité en allaitement devraient être privilégiées.
Resumo:
Un circuit arithmétique dont les entrées sont des entiers ou une variable x et dont les portes calculent la somme ou le produit représente un polynôme univarié. On assimile la complexité de représentation d'un polynôme par un circuit arithmétique au nombre de portes multiplicatives minimal requis pour cette modélisation. Et l'on cherche à obtenir une borne inférieure à cette complexité, et cela en fonction du degré d du polynôme. A une chaîne additive pour d, correspond un circuit arithmétique pour le monôme de degré d. La conjecture de Strassen prétend que le nombre minimal de portes multiplicatives requis pour représenter un polynôme de degré d est au moins la longueur minimale d'une chaîne additive pour d. La conjecture de Strassen généralisée correspondrait à la même proposition lorsque les portes du circuit arithmétique ont degré entrant g au lieu de 2. Le mémoire consiste d'une part en une généralisation du concept de chaînes additives, et une étude approfondie de leur construction. On s'y intéresse d'autre part aux polynômes qui peuvent être représentés avec très peu de portes multiplicatives (les d-gems). On combine enfin les deux études en lien avec la conjecture de Strassen. On obtient en particulier de nouveaux cas de circuits vérifiant la conjecture.