314 resultados para modèle auto-logistique
Resumo:
Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.
Resumo:
La douleur articulaire associée à l’arthrose est un problème clinique majeur, spécialement chez les personnes âgées. L’intensité de la douleur est souvent amplifiée lors de mouvement de l’articulation et principalement lors du soutien de la charge corporelle sur le membre lésé. Malheureusement, les traitements pharmacologiques proposés sont trop souvent associés à des effets secondaires néfastes et à une inefficacité pour le soulagement de la douleur à long terme. Divers modèles murins sont utilisés en laboratoire de recherche pour des études précliniques de molécules aux propriétés analgésiques. Une évaluation comparative de la réponse comportementale douloureuse des animaux d’un modèle d’instabilité articulaire induit par le sectionnement du ligament croisé antérieur accompagné d’une méniscectomie partielle (le modèle ACLT+pMMx) et d’un modèle de dégénérescence articulaire induite par le monoiodoacetate (le modèle MIA) a permis de sélectionner un modèle approprié pour la continuité du projet. Les deux modèles ont démontré des lésions tissulaires, mais le modèle MIA a démontré une réponse douloureuse plus prononcée que le modèle ACLT+pMMx. Par l’analyse de la démarche, le modèle MIA a démontré une boiterie claire dans le patron de la démarche des animaux qui est associée à une lésion unilatérale. Le modèle MIA a donc été choisi pour la suite du projet. La problématique principale dans la recherche sur la douleur associée à l’arthrose est une compréhension incomplète des mécanismes de douleur responsables de l’induction et du maintien de l’état de douleur. Il devient donc nécessaire d’améliorer nos connaissances de ces mécanismes en effectuant une caractérisation plus approfondie des modèles animaux employés pour l’évaluation de stratégies pharmacologiques analgésiantes. Afin de bien comprendre le modèle MIA, une caractérisation des événements moléculaires centraux lors de la progression du processus dégénératif des structures articulaires de ce modèle s’est effectuée aux jours 3, 7, 14, 21 et 28 post injection. Des mécanismes hétérogènes qui modulent l’information nociceptive en fonction de la progression temporelle de la pathologie ont été observés. Les changements du contenu i spinal des neuropeptides sélectionnés (substance P, CGRP, dynorphine A et Big dynorphine) ont débuté sept jours suivant l’injection de MIA. L’observation histologique a démontré que les dommages structuraux les plus importants surviennent entre les jours 14 et 21. C’est entre les jours 7 et 21 que les lésions démontrent le plus de similarités à la pathologie humaine. Cela suggère que lors d’une évaluation préclinique d’un traitement pharmacologique pour pallier la douleur articulaire utilisant le modèle MIA, l’étude doit tenir compte de ces événements afin de maximiser l’évaluation de son efficacité. Puisque les traitements pharmacologiques conventionnels proposés pour le soulagement de la douleur ne font pas l’unanimité en terme d’efficacité, d’effets non désirés et de coûts monétaires parfois onéreux, les molécules de dérivés de plante deviennent une alternative intéressante. L’eugénol, le principal constituant de l’huile de clou de girofle, a été administré oralement pour une période de 28 jours chez des rats ayant reçu l’injection intra-articulaire de MIA afin d’évaluer son efficacité pour le traitement de la douleur articulaire. L’eugénol à une dose de 40 mg/kg s’est révélé efficace pour l’amélioration du patron de la démarche des animaux ainsi que pour la diminution de l’allodynie mécanique secondaire. De plus, les concentrations spinales de neuropeptides pronocicepteurs ont diminué chez les animaux traités. Par une évaluation histopathologique, l’eugénol n’a démontré aucune évidence d’effets toxiques suite à une administration per os quotidienne pour une période prolongée. Ces résultats suggèrent le potentiel thérapeutique complémentaire de la molécule d’eugénol pour le traitement de la douleur articulaire.
Resumo:
Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.
Resumo:
Le lien entre le spectre de la matrice de transfert de la formulation de spins du modèle de Potts critique et celui de la matrice de transfert double-ligne de la formulation de boucles est établi. La relation entre la trace des deux opérateurs est obtenue dans deux représentations de l'algèbre de Temperley-Lieb cyclique, dont la matrice de transfert de boucles est un élément. Le résultat est exprimé en termes des traces modifiées, qui correspondent à des traces effectuées dans le sous-espace de l'espace de représentation des N-liens se transformant selon la m ième représentation irréductible du groupe cyclique. Le mémoire comporte trois chapitres. Dans le premier chapitre, les résultats essentiels concernant les formulations de spins et de boucles du modèle de Potts sont rappelés. Dans le second chapitre, les propriétés de l'algèbre de Temperley-Lieb cyclique et de ses représentations sont étudiées. Enfin, le lien entre les deux traces est construit dans le troisième chapitre. Le résultat final s'apparente à celui obtenu par Richard et Jacobsen en 2007, mais une nouvelle représentation n'ayant pas été étudiée est aussi investiguée.
Resumo:
Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Le surpoids (embonpoint et obésité) chez l’enfant est un problème préoccupant qui prend de plus en plus d’ampleur. Le rôle du parent dans cette problématique est prédominant, puisqu’il assure la disponibilité des aliments, choisit les mets présentés, joue le rôle de modèle dans l’acte alimentaire et interagit avec l’enfant durant les prises alimentaires pour guider son comportement alimentaire. Le parent offre et façonne l’environnement dans lequel évolue l’enfant. Cette thèse explore le rôle de la mère dans cet environnement. Le parent utilise diverses pratiques alimentaires pour guider l’alimentation de l’enfant. Certaines sont douces, comme encourager positivement l’enfant à essayer un aliment (ex. Goûtes-y, moi je trouve ça très bon!) et d’autres plus coercitives (ex. Tu ne sors pas de table sans avoir terminé ton assiette). Les interactions parent-enfant lors de la prise alimentaire sont susceptibles d’avoir différentes conséquences sur l’alimentation de l’enfant, modifiant possiblement les apports alimentaires, les préférences, la néophobie et le statut pondéral. Les interactions parent-enfant en général, donc hors du contexte précis de l’alimentation, peuvent aussi influencer les comportements alimentaires de l’enfant. L’objectif général de cette thèse est d’explorer les relations entre les interactions parent-enfant en général, aussi nommées « styles parentaux » (SP), les interactions parent-enfant dans le contexte alimentaire, portant le nom de «styles parentaux alimentaires» (SPA), les stratégies alimentaires utilisées par les parents pour guider l’alimentation de l’enfant, nommées « pratiques alimentaires parentales » (PAP), les comportements alimentaires de l’enfant et le statut pondéral de ce dernier. Cette thèse comprend 4 objectifs spécifiques. D’abord, d’examiner les relations entre les SP, les SPA et les PAP. Dans un deuxième temps, les relations entre les SPA, le comportement alimentaire de l’enfant (préférence et fréquence de consommation) et le statut pondéral de l’enfant seront explorées. Puis, l’existence de relations entre l’usage de PAP et le comportement alimentaire de l’enfant sera évaluée. Finalement, les relations entre les attitudes de la mère à l’égard de son poids et de celui de son enfant et du comportement néophobique de l’enfant seront explorées. Cent vingt-deux mères d’enfants d’âge préscolaire, de 3 à 5 ans, ont été recrutées par des milieux de garde de l’île de Montréal et ont complété et retourné un questionnaire auto-administré portant sur le style parental, style parental alimentaire, les PAP, les fréquences de consommation de l’enfant, les préférences de l’enfant pour certains aliments et groupe d’aliments, la néophobie de l’enfant, le poids et la taille de l’enfant, le régime actuel de la mère, la perception du poids de l’enfant, la préoccupation face au poids de l’enfant ainsi que la description du profil familial. Les SP, les SPA et les PAP montrent des corrélations. Les SPA, plus particulièrement les deux échelles qui les composent (exigence et sensibilité) montrent des corrélations avec la consommation et la préférence pour certains aliments. Des différences sont aussi notées entre les différents SPA et le statut pondéral de l’enfant et certains comportements alimentaires. La présente thèse suggère une implication de trois concepts, soient les SP, les SPA et les PAP, dans la dynamique alimentaire de la dyade mère-enfant. Des relations importantes entre les SPA et les préférences alimentaires sont suggérées. Les futures recherches dans ce domaine devront évaluer l’impact relatif des PAP, des SP et des SPA sur le comportement alimentaire (consommation et préférence) et le poids de l’enfant. Une intervention efficace visant des changements de comportements alimentaires auprès des familles devra adresser à la fois les PAP, mais aussi les SP et les SPA.
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.
Resumo:
Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.
Resumo:
La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.
Resumo:
La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.