51 resultados para Continuously differentiable
Resumo:
Le Corrector sive Medicus est un pénitentiel rédigé par Burchard, évêque de Worms (1000-1025). Il s’agit d’un manuel destiné à guider les confesseurs lors de l’administration du sacrement de pénitence. Intégré dans le Decretum, l’œuvre majeure de Burchard, il compte parmis les pénitentiels les plus illustres. Il contient notamment un questionnaire très élaboré sur les péchés commis par les fidèles. Les 194 questions du Corrector sive Medicus constituent l’objet d’étude de ce mémoire. Entre le VIIe et le XIIe siècle, les pénitentiels forment une longue tradition littéraire où les textes se répètent constamment. Le questionnaire du Corrector sive Medicus se distingue du fait qu’il est rédigé en grande partie par Burchard lui-même. Les détails précis sur les survivances païennes et la religion populaire que l’évêque introduit dans son pénitentiel permettent, comme aucune autre source de la période, une analyse ethno-historique de la culture germanique. La première partie du mémoire est consacrée à la présentation du Corrector sive Medicus : j’y décris d’abord le contexte historique et biographique de l’œuvre, puis discute d’une herméneutique littéraire, pour enfin proposer une synthèse diachronique des traditions germaniques. La deuxième partie offre, pour la première fois en français, la traduction intégrale du questionnaire de Burchard, accompagnée de commentaires sur différents sujets ou problèmes soulevés par le texte, notamment ceux qui concernent la culture germanique. Finalement sont placés en annexe quelques documents qui témoignent, tout comme le Corrector sive Medicus, d’un syncrétisme religieux profondément enraciné dans les mœurs des Germains.
Resumo:
Le choix du Sénégal de faire des TIC un des leviers stratégiques de rénovation de l’école soulève des questions dont la nécessité de voir comment les enseignants se les approprient afin que l’école en tire les avantages attendus. Pour mieux comprendre comment et pourquoi se construisent les usages pédagogiques des TIC, la présente recherche vise à décrire et à analyser le processus et les facteurs d’intégration des TIC dans les pratiques d’enseignement des instituteurs sénégalais. La difficulté à retracer le processus a conduit à nous appuyer sur un modèle descripteur des processus d’intégration pédagogique des TIC inspiré de Sandholtz, Ringstaff et Dwyer (1997), de Karsenti, Savoie-Zajc et Larose (2001) et de Poellhuber et Boulanger (2001). Six instituteurs de l’Inspection d’Académie de Dakar qui développent depuis quatre ans au moins des TIC en classe ont été sélectionnés pour une étude multi-cas. Six entrevues individuelles semi-dirigées ont été réalisées complétées par un questionnaire, l’observation des pratiques d’intégration des TIC et une analyse documentaire. Les résultats du traitement des données recueillies sont présentés en trois articles abordant chacun un des volets de l’objectif de la recherche. Il ressort des résultats que les usages des TIC des six participants sont portés par des profils et des contextes d’usages particulièrement favorables à des pratiques d’information, de communication et de préparation de la classe à la maison et à des activités de recherche et de documentation, d’édition et de publication et d’apprentissages disciplinaires ou thématiques en classe avec les élèves. Par ailleurs, les analyses comparatives montrent que les formations (initiales et en cours d’emploi) qu’ils ont suivies ne les ayant pas suffisamment préparés à intégrer les TIC dans leurs pratiques d’enseignement, c’est dans le cadre des équipes pédagogiques portant leurs projets d’établissement d’intégration pédagogique des TIC et par des stratégies individuelles d’autoformation et d’organisation, collectives et coopératives de co-formation qu’ils ont construit leurs usages et surmonté les difficultés du parcours. Ce processus est porté par divers facteurs contextuels, institutionnels et sociaux particulièrement favorables. En plus, Ils partagent des dispositions d’esprit, des croyances et des postures épistémiques et psychosociales qui les poussent à toujours aller plus loin dans leurs pratiques d’intégration des TIC. En permettant de mieux comprendre le processus menant un instituteur des usages personnels des TIC à leurs usages professionnels et pédagogiques et comment les facteurs d’influence jouent sur les processus de cooptation et d’appropriation par lesquels il les construit, la présente recherche fournit des modèles de tracés et d’étapes d’intégration des TIC susceptibles d’être partagés et intégrés dans les référentiels de formation des enseignants à l’intégration pédagogique des TIC. Elle permet également de mieux dessiner les contours des contextes d’usages à développer et de définir les axes et les leviers pédagogiques et psychosociaux que des formateurs peuvent utiliser afin d’amener des enseignants en situation de construction des usages pédagogiques des TIC à développer les comportements et les attitudes favorables à l’intégration des TIC dans leurs pratiques d’enseignement.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire [de la thèse] a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Le Livre Roisin est l'un des rares coutumiers français du XIIIe siècle. Il contient les coutumes de la ville de Lille, mises par écrit en 1267, puis recopiées et enrichies en 1297, en 1349 et enfin de façon continue jusqu'au XVIe siècle. Une dernière copie officielle fut faite en 1618-1619. L'analyse approfondie du plus ancien manuscrit du Livre Roisin qui nous soit parvenu, celui de 1349, révèle les secrets de son élaboration. Les nombreuses chartes, actes, arrêts et bans joints au coutumier à proprement parler durant plus de deux siècles donnent une vue d'ensemble des lois qui régissaient les Lillois du Moyen Âge. Au passage, les producteurs du recueil, les clercs de ville, ont laissé des traces de leur travail, de telle sorte qu'il est possible de dresser l'inventaire de leurs responsabilités et comprendre l'importance de ces officiers tant dans la perspective des institutions municipales médiévales que dans celle de l'historien, pour qui ils font partie de la chaîne de transmission des textes. De leur côté, les récepteurs, tout aussi discrets mais présents, se manifestent dans le détail de la procédure judiciaire que contient le document. L'utilisation qu'ils en ont faite, tantôt pratique, tantôt mémorielle surgit. Il en ressort que le recueil fût à la fois un aide-mémoire et un outil de défense de l'identité urbaine et même picarde. Enfin, le Livre Roisin est un outil privilégié pour l'étude de l'histoire de la ville, puisque sa rédaction et chacune de ses copies sont ancrées dans des événements politiques aux conséquences majeures pour la ville de Lille.
Resumo:
Peu de personnes se rappellent de la présence de la France en Inde. Quelques parties de l’Inde sont restées françaises jusqu’en 1954. À cette date, l’Inde française, consistant de quatre petits établissements (Pondichéry, Yanaon, Karikal et Mahé), était en pleine décadence et éclipsée par d’autres colonies françaises, plus grandes, plus lucratives et plus importantes pour la Métropole. L’Indochine et l’Algérie ne sont que deux exemples. Toutefois, les Français n’étaient pas disposés à abandonner leurs possessions en Inde sans résistance. Le présent mémoire cherche à expliquer la valeur des possessions françaises en Inde et les raisons de la fin de la tutelle française. Le titre du mémoire indique qu’un certain changement a eu lieu dans la politique française vis-à-vis de ses possessions en Inde. L’étude commence par un résumé de la situation politique et économique de l’Inde française depuis la fin de la dernière occupation anglaise en 1814 jusqu’à la fin de la Première Guerre mondiale. L’année 1920 est choisie comme point de départ de la période visée par le mémoire. Portant sur les années 1920, le premier chapitre examine l’hégémonie du parti Gaebelé qui a eu toutes les caractéristiques d’une dictature. Indifférentes à la vie politique de l’Inde française, les autorités métropolitaines étaient surtout attirées par le commerce que la colonie offrait dans la production de tissus et l’exportation d’arachides. Après la chute du parti Gaebelé, l’Inde française a été plongée dans une longue période d’agitation, un thème clé du deuxième chapitre sur les années 1930. Inconscientes de la réalité politique, les autorités métropolitaines ont toujours accordé la priorité au commerce. Durant les années 1940, l’Inde française n’a jamais arrêté de se rapprocher de l’Inde britannique. Ce rapprochement a aussi persisté lorsque l’Inde britannique est devenue l’Union indienne en 1947. Soudainement, les Français ont senti le besoin de réaffirmer leur position d’autorité en Inde française. Le commerce est passé au second plan au profit d’une série de réformes politiques. Toutefois, ce brusque changement de politique fut trop tardif. Le quatrième chapitre, centré surtout sur la période de 1950 à 1954 et vu à travers l’exemple d’Édouard Goubert, a souligné la méconnaissance des autorités métropolitaines des réalités qui confrontaient l’Inde française. Lorsque Goubert a cessé de servir comme porte-parole et principal allié du gouvernement français en Inde, les possessions françaises en Inde furent rattachées une par une à l’Union indienne. Rétrospectivement, les faits économiques, vitaux pour le début du mémoire, sont quasiment absents de deux derniers chapitres. Se retrouvant face à la menace de perdre leurs possessions en Inde, les Français ont compris que l’Inde française était précieuse pour des raisons autres que le commerce. Un accent particulier fut mis pour souligner ces avantages culturels et politiques. De petite taille, les possessions françaises étaient importantes pour l’ordre et la stabilité dans les autres colonies de l’Empire. Parallèlement, elles représentaient des points d’appui pour l’expansion de la culture française dans l’immense sous-continent indien.
Resumo:
Ce mémoire de maîtrise est une recherche exploratoire sur les expériences de localisation vécues dans l’espace urbain montréalais par des sujets en relation à l’information dite « de localisation ». La localisation est un processus d’orientation spatiale où l’emplacement d’un lieu dans l’espace est un problème à résoudre. Cette exploration est basée sur la théorisation de l’information proposée par Bateson (1972) et le développement du concept de dispositif par Belin (2002) et Agamben (2007) à la suite de Foucault, la localisation étant le concept empirique exploratoire. Le processus de localisation est investigué quant à son caractère médiatique : l’information de localisation est le medium qui, en étant un résultat et une cause de l’action, donne forme à ce processus mené par l’effort. Un travail de terrain ethnométhodologique déployé par le biais d’observations empiriques et d’entrevues qualitatives permet d’identifier certaines conditions qui rendent possibles, dans la vie quotidienne, les relations entre l’information de localisation, l’espace urbain et un sujet. Étant majoritairement vécue lors de déplacements présents, futurs ou passés, la localisation est ainsi conceptualisée en tant que wayfinding : l’action de déterminer quelles voies ou trajets emprunter pour se rendre d’un point A à un point B. Ce mémoire est en réalité une problématisation ouverte qui vise à explorer et identifier certains enjeux qui sont au cœur des processus de localisation dans l’espace urbain montréalais. Si « [l]e fait humain par excellence », comme le souligne Leroi-Gouhran (1965) « est peut-être moins la création de l’outil que la domestication du temps et de l’espace » (p. 139), le fait d’habiter en un certain temps et en un certain espace est en soi une relation problématique de confiance. Le vivant et le non-vivant habitent des espaces aménagés qui sont continuellement transformés par leur détermination mutuelle. En partant du constat que l’environnement construit se déploie en étant produit et aménagé dans des dispositions où certains de nos gestes sont délégués, peut-on envisager être libre sans (se) faire confiance ?
Resumo:
réalisé avec la codirection de Marek Jankowski
Resumo:
Problématique : Le glutathion est une molécule clé de la défense antioxydante. Chez les enfants sous nutrition parentérale (NP), particulièrement les nouveau-nés, sa concentration tissulaire est anormalement basse. Puisque la capacité de synthèse de glutathion est adéquate, un déficit en cystéine, le substrat limitant, est soupçonnée. À cause de son instabilité en solution, la cystéine est peu présente en NP; la méthionine étant le précurseur endogène de cet acide aminé. L’activité de la méthionine adénosyltransférase (MAT), une enzyme essentielle à la transformation de la méthionine en cystéine, est facilement inhibée par l’oxydation. L’hypothèse : Le faible taux de glutathion chez les enfants sous NP est causé par l’inhibition de la MAT par les peroxydes contaminant ces solutions nutritives. Objectif: Mesurer l’impact d’une infusion de NP et de H2O2 sur l’activité hépatique de MAT en relation avec le niveau de glutathion. Méthode : Un cathéter est placé dans la jugulaire droite de cobayes de trois jours de vie. Quatre groupes sont comparés:1- Témoin (animaux aucune manipulation, sans cathéter) 2)-(animaux nourris normalement et le cathéter (noué)); 3) NP (animaux nourris exclusivement par voie intraveineuse (acides aminés + dextrose + lipides + vitamines + électrolytes), cette solution génère environ 400 µM de peroxyde. 4) H2O2 (animaux nourris normalement et recevant via le cathéter 400 µM de H2O2). Après quatre jours, le foie et le sang sont prélevés pour la détermination du glutathion, potentiel redox et l’activité de MAT, glutathion peroxydase et glutathion reductase. Résultats : L’activité de MAT est plus faible dans les groupes NP et H2O2. Le potentiel redox du foie et dans le sang est plus oxydé dans le groupe NP. Tandis que la concentration de GSSG du foie est plus élevée dans le groupe NP. Ainsi la concentration de GSH dans le sang et foie est plus faible dans les NP et H2O2 Discussion: La relation entre l’inhibition de MAT et le stress oxydant observée dans le groupe NP pourrait bien expliquer la perturbation du système glutathion observée chez les nouveau-nés prématurés.
Resumo:
Le ministère de l’Éducation, du Loisir et du Sport (MELS) publie tous les ans des indicateurs (MELS, 2007) qui traitent de plusieurs aspects du système scolaire québécois. Quoique le MELS insiste sur l’obligation pour les écoles primaires et secondaires d’obtenir des résultats probants en termes d’« efficacité », les indicateurs utilisés pour apprécier la performance des écoles ne sont pas nécessairement conçus à cette fin. Une étude du MELS rapporte que les élèves de 5e secondaire éprouvent de la difficulté à obtenir de bons résultats à deux critères de correction (syntaxe et ponctuation, orthographe), parmi les six de l’épreuve unique de français écrit (MELS, 2008). Ce fait nous amène à nous intéresser à l’étude de la modélisation des liens entre des facteurs associés à l’environnement scolaire et les résultats des élèves de la région métropolitaine de Montréal, en ce qui a trait à ces deux critères pour les cohortes des années 2006, 2007 et 2008. Nous procédons d’abord à des analyses descriptives des variables pour chacune des trois populations. Nous poursuivons l’analyse en effectuant plusieurs modélisations multiniveaux multivariées des deux critères en fonction de variables indépendantes, caractéristiques de l’élève et de l’école. Les résultats de la présente recherche indiquent une relative stabilité dans la performance des élèves pour les trois années, avec une légère amélioration de la performance pour la cohorte de 2007, et qui se maintient pour la cohorte de 2008. Les élèves du secteur privé obtiennent de meilleurs résultats que ceux du public. Le résultat des filles est supérieur à celui des garçons et les élèves de langue maternelle française obtiennent de meilleurs résultats que ceux de langues maternelles différentes du français. Il importe cependant d’apporter quelques nuances dans l’interprétation de ces résultats. En outre, la part de variance dans la performance des élèves attribuable à l’élève est de l’ordre de 75,0 % et de l’ordre de 25,0 % à l’école. On note un effet différentiel des facteurs d’élève et d’école selon le critère considéré. Les variables caractéristiques de l’élève comptent pour 13,9 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 9,8 % en orthographe. Les variables caractéristiques de l’école comptent pour 3,7 % de la variance totale de la performance des élèves en syntaxe et ponctuation et pour 6,4 % en orthographe. Certains facteurs d’école, comme la taille, la mixité ne semblent pas présenter un lien significatif avec la performance des élèves.
Resumo:
Même si le rôle des ONG locales de la lutte contre le VIH/Sida est bien apprécié en Afrique, il existe une perception d’inefficacité de leurs actions liée à leur manque de capacité dans le suivi-évaluation des programmes. Par ailleurs, leur implication en évaluation peut être utilisée comme moyen d’amélioration continue de l’efficacité de leurs interventions. L’objectif de ce travail est d’analyser l’influence de l’implication de ces ONG dans les évaluations sur l’efficacité de ces interventions. Il combine les méthodes qualitative et quantitative d’analyse de données recueillies auprès de responsables, de financeurs et clients des ONG du Bénin. Il est rédigé sous la forme d’articles et est subdivisé en quatre parties :- analyse descriptive de la façon dont les ONG s’impliquent dans les évaluations de leurs activités ainsi que des facteurs l’influençant;- analyse par une méthode quantitative de l’influence qu’une telle implication peut avoir sur l’efficacité des interventions;- examen de façon qualitative des perceptions des acteurs sur cette implication ainsi que des mécanismes par lesquels elle peut conduire à l’efficacité des interventions;- examen des dimensions et facteurs explicatifs de la satisfaction des clients de ces ONG. Des recommandations sont adressées aux acteurs en vue d’optimiser l’utilisation des méthodes d’évaluation par ces organisations pour une amélioration de l’efficacité de leurs actions.
Resumo:
L’effet de la disponibilité des AAF sur le taux d’homicide est un sujet qui n’a jamais su faire consensus au sein du corpus scientifique. En tenant compte des réalités canadiennes relatives à l’utilisation d’une arme à feu dans les homicides, la présente étude évaluera la relation entre la disponibilité des armes à feu et le taux d’homicide au Canada, par le biais de séries chronologiques simples et multiples. Les données utilisées dans le cadre de la recherche proviennent de l’Enquête sur l’homicide effectuée par Statistiques Canada, du programme de la déclaration uniforme de la criminalité (DUC), des catalogues Juristats et des catalogues produits par Statistiques Canada sur les causes de décès au pays. Globalement, des relations positives et significatives sont observées entre les deux phénomènes au temps t. Au temps t-1 et t-2, des relations négatives sont observées entre la disponibilité des armes à feu et le taux d’homicide, tandis que des relations positives sont constatées entre le taux d’homicides et la disponibilité des armes à feu. Les résultats confirment que le taux d’homicide et la disponibilité des armes à feu sont des phénomènes qui s’influencent mutuellement dans le temps. En raison du niveau d’agrégation des données, il n’est pas possible de départager l’influence respective des deux phénomènes. Les résultats soutiennent toutefois davantage les thèses de l’autoprotection et de l’autodéfense. Enfin, les résultats montrent l’importance de développer des indices de disponibilité propres aux deux types d’armes à feu impliqués dans les homicides au Canada.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.