850 resultados para Interne Modelle
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.
Resumo:
La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.
Resumo:
L'Accord sur le commerce intérieur est un accord de libre-échange pancanadien visant l'abaissement des barrières non tarifiaires au commerce interprovincial. La notion de barrières au commerce interprovincial, en soi, suscite maintes controverses. Aucun consensus n'existe à savoir quelles sont les barrières au commerce, quelles en sont leurs coûts, mais surtout, s'il faut les abaisser. La grande majorité des experts concoivent que beaucoup de ces barrières non tarifaires au commerce se retrouvent dans le secteur des produits agroalimentaires. À ce titre, ce domaine est, depuis plusieurs décennies, traditionnellement protectionniste et constitue donc un marché des plus difficiles à intégrer. Cette réalité prévaut tant au niveau international qu'interprovincial. Au Canada, l'outil privilégié après des années de négociations constitutionnelles infructueuses fut l'Accord sur le commerce intérieur. Cet accord, aux allures de traité international, vise l'intégration graduelle du marché interne canadien. La volonté de devenir un marché intégré et compétitif au niveau mondial se heurte à la détermination des provinces de protéger leur souveraineté législative. Ainsi, l'outil d'ouverture du marché que constitue l'Accord sur le commerce intérieur, qui navigue entre ces positions antagonistes, fut rédigé de manière assez complexe et peu accessible. Le contexte politique et constitutionnel particulier dans lequel se sont inscrites les négociations de cet accord a ainsi teinté le texte de l'accord et sa rédaction. En plus de sa simplification, plusieurs solutions intervenant sous plusieurs facettes de l'Accord sur le commerce intérieur permettraient à ce dernier de se voir plus efficace dans sa mission d'intégration du marché interprovincial canadien, en plus d'augmenter sa notoriété, sa crédibilité et de permettre une meilleure mise en œuvre.
Resumo:
Ce mémoire propose un portrait global et une critique de l'état du droit canadien relatif au statut juridique des municipalités. L'adage voulant que les municipalités constituent des créatures des législatures ne possédant aucun statut constitutionnel est un héritage du droit américain (théorie du Dillon 's rule) de la fin du 1ge siècle. Or, plusieurs États américains ont introduit très tôt le principe du home rule (autonomie locale) dans leurs constitutions. Le Canada n'a pas fait de même et les institutions municipales ne sont toujours pas protégées dans la Constitution écrite. On constate toutefois une évolution de la législation et de la jurisprudence vers une augmentation de l'autonomie municipale. Notre hypothèse est que l'existence d'institutions municipales représentées par des élus et pourvues de pouvoirs autonomes dans les matières d'intérêt purement municipal fait partie de la Constitution non écrite. Les exceptions non écrites au pouvoir d'une province de modifier sa constitution interne, ainsi que les principes structurels de la démocratie et de la protection des minorités sont étudiés. Un statut protégé pour les municipalités est conforme au droit international et plusieurs États, dont la Californie et l’Italie, ont constitutionnalisé les pouvoirs locaux. Enfin, nous proposons diverses avenues inspirées du droit international et du droit comparé afin que le Canada, ou le Québec, reconnaisse expressément que l'existence de la troisième branche de gouvernement est protégée et que la Législature ne peut porter atteinte au caractère démocratique des municipalités, ni à leurs pouvoirs municipaux généraux.
Resumo:
La décision d’intervenir militairement ou non dans un conflit est certainement l’une des plus importantes qu’un État puisse prendre. Ces décisions sont coûteuses et très prégnantes tant au plan financier, politique que social. La recherche exposée vise à analyser les processus décisionnels canadiens en matière d’intervention militaire lors de la guerre du Golfe, la guerre en Afghanistan ainsi que la guerre en Irak. Le Canada est un cas très intéressant à étudier, car malgré son statut de puissance moyenne, il a pris part à sept conflits armés depuis 1867. Cette recherche tentera donc de déterminer ce qui motive le Canada à investir des ressources financières et humaines dans certains conflits, alors qu’il choisit de ne pas s’impliquer dans d’autres. Certaines théories des relations internationales affirment que la politique de défense des États est guidée par le désir de maximiser leur puissance sur la scène internationale. D’autres théories mettent plutôt l’accent sur les valeurs des États, ou bien sur leur intégration dans des institutions internationales. Ces différentes hypothèses soulèvent l’importance des facteurs internes et externes, mais ne permettent pas de savoir lesquels priment. Ainsi, grâce à un modèle de prise de décision réaliste néoclassique, synthétisant ces deux types de facteurs, il est possible de déterminer lesquels des éléments internes (contraintes de politique interne, perception des dirigeants) ou externes (position relative du Canada dans le système international) prédominent lors de la décision d’entrer ou non en guerre.
Resumo:
Les trois essais dans cette thèse étudient les implications des frictions financières, telles que les contraintes de collatérale ou de crédit, pour les décisions économiques des agents et leur impact sur les variables macro-économiques agrégées. Dans le premier chapitre "Financial Contracts and the Political Economy of Investor Protection" nous proposons une théorie du niveau de protection des investisseurs. Une faible protection des investisseurs implique un coût de financement externe plus élevé à cause des problèmes d'agence plus aigus entre les investisseurs et les entrepreneurs. À l'équilibre, ceci exclut les agents plus dépendants sur le financement externe de l'entrepreneuriat, ce qui augmente les profits des entrepreneurs qui restent actifs. Quand le niveau de la protection des investisseurs est choisi par un vote majoritaire, la théorie génère (i) une protection des investisseurs plus faible dans les économies avec plus grande inégalité dans les besoins de financement externe parmi les entrepreneurs, (ii) une dynamique non-monotone de l'output, (iii) améliorations (détériorations) de la protection des investisseurs suite à des ralentissements (accélérations) de l'output agrégé. L'évidence empirique donne un support à ces prédictions de la théorie. Dans le deuxième chapitre "Financial Frictions, Internal Capital Markets, and the Organization of Production", nous examinons comment la présence des frictions financières peut mener à la formation des conglomérats et des "business groups" diversifiées. Particulièrement, nous construisons un modèle d'équilibre général d'entrepreneuriat dans lequel les conglomérats émergent de façon endogène et substituent partiellement le marché du crédit imparfait. Nous montrons que ce modèle est capable d'expliquer quantitativement plusieurs faits stylisés concernant l'organisation de la production, les différences de productivité entre les firmes et les différences en présence des conglomérats entre les pays. Le troisième chapitre "Size and Productivity of Single-segment and Diversified Firms: Evidence from Canadian Manufacturing" étudie empiriquement la relation entre la taille, la productivité, et la structure organisationnelle d'une firme. Utilisant les micro-données sur les établissements manufacturiers canadiens, nous documentons plusieurs faits stylisés concernant la taille et la productivité totale des facteurs des établissements dans les conglomérats et dans les firmes non-diversifiées. Nous trouvons que les établissements dans les conglomérats sont en moyenne plus larges que leurs contreparties dans les firmes non-diversifiées, les petits établissements dans les conglomérats sont moins productifs que les établissements de taille similaire dans les firmes non-diversifiées, mais les larges établissements dans les conglomérats sont plus productifs que ceux de taille similaire dans les firmes non-diversifiées. Cette évidence est consistante avec réallocation interne efficiente des ressources au sein des conglomérats.
Resumo:
Ce mémoire porte sur la chronologie culturelle des Amérindiens du Nord-Est américain. Il vise à documenter un des épisodes culturels de la préhistoire de l’Estrie, soit le Sylvicole moyen ancien, compris entre l’an 400 avant notre ère et 500 de notre ère. De la poterie typique de cette période a été récoltée sur le site Vieux-Pont (BiEx-1) à Lennoxville par des archéologues amateurs et professionnels depuis sa découverte. L’analyse des tessons de poterie réalisée dans ce projet a surtout révélé une forte homogénéité de l’effet basculant, une technique d’application décorative, sur la paroi interne et la panse des vases. Elle a aussi permis de proposer une occupation récente au Sylvicole moyen ancien, entre les ans 1 et 500-600 de notre ère. L’analyse comparative suggère la participation des groupes de Vieux-Pont aux mêmes réseaux d’interactions et d’échanges que ceux des régions de Montréal, de Québec, du Haut-Richelieu et de la Nouvelle-Angleterre.
Resumo:
Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
L’adénovirus possède plusieurs caractéristiques faisant de ce virus un candidat de choix pour la construction de vecteurs utiles dans les études de génomique fonctionnelle. Dans la majorité de ces applications, on a recours à un vecteur adénoviral de première génération délété de sa région E1. L’utilisation de vecteurs adénoviraux comprend deux maillons faibles : la construction du vecteur et la production subséquente de ce dernier. Le développement de méthodes alternatives est donc nécessaire pour renforcer ces deux maillons, permettant ainsi une utilisation étendue de ces vecteurs. Ce développement va s’articuler sur deux axes : l’ingénierie du vecteur de transfert pour la construction de l’adénovirus recombinant et l’ingénierie d’une lignée cellulaire pour la production du vecteur. En utilisant un vecteur de transfert adénoviral co-exprimant, à partir d’un promoteur régulable à la tétracycline, la protéase de l’adénovirus et une protéine de fluorescence verte (GFP) par l’intermédiaire d’un site d’entrée ribosomal interne (IRES), notre groupe a établi que la sélection positive, via l’expression ectopique de la protéase, est un processus efficace pour la création de librairie d’adénovirus recombinants. Par contre, la diversité atteinte dans ce premier système est relativement faible, environ 1 adénovirus recombinant par 1 000 cellules. Le travail effectué dans le cadre de cette thèse vise à construire un nouveau transfert de vecteur dans lequel l’expression de la protéase sera indépendante de celle du transgène permettant ainsi d’optimiser l’expression de la protéase. Ce travail d’optimisation a permis de réduire le phénomène de transcomplémentation du virus parental ce qui a fait grimper la diversité à 1 virus recombinant par 75 cellules. Ce système a été mis à l’épreuve en générerant une librairie adénovirale antisens dirigée contre la GFP. La diversité de cette librairie a été suffisante pour sélectionner un antisens réduisant de 75% l’expression de la GFP. L’amplification de ce vecteur adénoviral de première génération doit se faire dans une lignée cellulaire exprimant la région E1 telle que les cellules 293. Par contre, un adénovirus de première génération se répliquant dans les cellules 293 peut échanger, par recombinaison homologue, son transgène avec la région E1 de la cellule créant ainsi un adénovirus recombinant réplicatif (RCA), compromettant ainsi la pureté des stocks. Notre groupe a déjà breveté une lignée cellulaire A549 (BMAdE1) exprimant la région E1, mais qui ne peut pas recombiner avec le transgène du virus. Par contre, le niveau de réplication de l’adénovirus dans les BMAdE1 est sous-optimal, à peine 15-30% du niveau obtenu dans les cellules 293. Le travail fait dans le cadre de cette thèse a permis de mettre en évidence qu’une expression insuffisante d’E1B-55K était responsable de la mauvaise réplication du virus dans les BMAdE1. Nous avons produit de nouveaux clones à partir de la lignée parentale via une transduction avec un vecteur lentiviral exprimant E1B-55K. Nous avons confirmé que certains clones exprimaient une plus grande quantité d’E1B-55K et que ces clones amplifiaient de manière plus efficace un vecteur adénoviral de première génération. Ce clone a par la suite été adapté à la culture en suspension sans sérum.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
L’étude présente l’élaboration du premier outil d’évaluation normalisée du langage destiné aux enfants francophones d’âge préscolaire des pays africains qui se caractérisent par l’absence de services publics en orthophonie et la méconnaissance des retards de langage. En s’inspirant des techniques psychométriques langagières utilisées en Amérique du nord et en se basant sur les théories d’acquisition du langage, on a construit un outil appelé Batterie de tests de dépistage approfondi (BATEDA) qui compte onze tests répartis en trois sous-batteries évaluant respectivement l’intégrité des modalités de transmission du langage (BATEM), les composantes langagières (BATEL) et la mémoire verbale (TMV). A partir d’un échantillon de 159 enfants camerounais francophones, on a normalisé la batterie suivant la cote z et les rangs en centile. Les tests présentent une fiabilité inter-juge et intra-juge (p<0,05), une cohérence interne globale d’environ 96% (α de Cronbach=0,958) et une validité prédictive de la réussite scolaire des enfants (r=0,700). Les stratégies d’application de la BATEDA visent à favoriser la pratique du dépistage systématique et la prise en charge des retards de langage au Cameroun, en mettant à contribution les enseignants et les parents comme principaux intervenants. Les implications de cette étude sont de trois ordres : (1) une meilleure connaissance des difficultés langagières, la revalorisation des personnes atteintes et une attitude de vigilance sociale; (2) l’instauration de la pratique de dépistage précoce favorable à l’intervention; (3) une potentielle diminution du taux d’exclusion et d’abandon scolaire d’enfants présentant des retards langagiers à travers un enseignement ciblé en leur faveur.