993 resultados para Large-n Limit


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé L’Accident Vasculaire Cérébral (AVC) constitue une des principales causes de décès et de handicap au monde. La guérison après l’AVC ainsi que l’atténuation du handicap dépendent entre autres de la rapidité du diagnostic ainsi que de la mise en place de traitements et des soins très spécialisés. Afin de guider la pratique clinique et de fonder cette pratique sur des résultats probants, des guides de pratique clinique (GPC) ont été publiés et disséminés en Catalogne en 2005. De plus, trois audits explorant les soins hospitaliers aigus ont été réalisées en 2005, 2007 et 2010 afin d’évaluer et améliorer le suivi des recommandations proposées dans les GPC. Le suivi de ces recommandations, dont certaines font référence aux soins infirmiers, a été mesuré à l’aide d’un nombre limité d’indicateurs. L’analyse de ces indicateurs, qui a été réalisée de façon globale, n’a toutefois pas permis d’identifier les facteurs influençant le suivi des recommandations en soins infirmiers ni l’impact de ce suivi sur les résultats concernant la santé des patients. Ainsi, le but général de cette étude est d’analyser les indicateurs de la qualité des soins infirmiers aux personnes ayant subi un AVC en Catalogne. Plus spécifiquement, il vise à : 1) décrire le suivi des recommandations en soins infirmiers aux personnes ayant subi un AVC en 2010 en Catalogne, mesuré à l’aide de six indicateurs spécifiques aux soins infirmiers; 2) analyser l’évolution de ce suivi entre 2005, 2007 et 2010; 3) identifier des facteurs susceptibles d’avoir influencé ce suivi en 2010; et 4) analyser la relation entre le suivi de ces recommandations et les résultats concernant la santé des patients. Une analyse secondaire des données a été faite à partir des données de l’audit de 2010. Cet audit a été réalisé dans 46 des 49 hôpitaux publics en Catalogne et comprend un échantillon de 2 190 cas représentant une population de 10 842 cas. Les résultats indiquent que le suivi des recommandations portant sur l’ECG basal, la glycémie basale et la mobilisation précoce est élevé. Le suivi de la recommandation portant sur la dysphagie s’est amélioré à travers les trois audits, mais il demeure sous-optimal. Et le suivi des recommandations portant sur l’évaluation de l’humeur et l’éducation à la personne famille est très faible. En ce qui concerne les facteurs qui semblent influencer le suivi de ces recommandations, les résultats ajustés pour les caractéristiques et la sévérité des patients montrent un suivi majeur de la recommandation en lien avec le dépistage de la dysphagie chez les personnes admises en neurologie et dans les centres de plus de 300 admissions pour AVC /année ainsi que chez les patients présentant une dysphagie. De plus, la durée du séjour hospitalier a été plus longue chez les patients dont l’évaluation de l’humeur a été faite et plus courte chez les patients mobilisés de façon précoce. Bien que, le suivi de certaines recommandations demeure très bas, ces résultats indiquent une amélioration progressive du suivi des recommandations en soins infirmiers, et donc de la qualité des soins, et soulignent l’utilité de l’audit pour surveiller et améliorer la qualité des soins de l’AVC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche vise à apporter un éclairage sur les facteurs déterminants de la concertation économique. De manière spécifique, elle poursuit trois principaux objectifs. Premièrement, nous cherchons à définir la notion de dialogue social et les termes qui y sont généralement associés tels que la concertation, la consultation, le tripartisme, le partenariat, la négociation collective, etc. Deuxièmement, nous faisons le point sur l’État du dialogue social au Québec, notamment en décrivant son évolution historique, les acteurs impliqués, les objets abordés et les instances de dialogue. Certaines comparaisons entre la culture québécoise de concertation et celles caractérisant d’autres cultures (Canada, États-Unis, Europe) sont par ailleurs présentées. De plus, ce tour d’horizon des différents lieux de dialogue social permettra de mieux saisir les composantes de la concertation en lien avec le développement économique, plus particulièrement, sur les façons de planifier le développement économique d’une manière socialement responsable (Papadakis, 2010). Troisièmement, une analyse empirique des facteurs déterminants de la concertation économique est effectuée. Pour atteindre les objectifs et répondre à notre question de recherche, nous articulons cette recherche en deux phases. Dans un premier temps, une cartographie des instances de dialogue social au Québec et la collecte de données auprès d’instances québécoises sont établies. Cette première phase permet également d’identifier quels sont les facteurs déterminants de la concertation économique généralement reconnus au sein de la littérature. Afin de mieux saisir ces facteurs et par conséquent, bonifier le modèle d’analyse, l’étude s’appuie sur une série d’entretiens exploratoires réalisés au Québec, mais aussi en France où la culture de dialogue social économique semble plus développée. Ce mouvement itératif entre la littérature et les entretiens exploratoires effectués permet de construire un modèle d’analyse des facteurs déterminants de la concertation économique. Dans un second temps, ce modèle d’analyse est testé en se concentrant sur deux organismes de concertation économique au Québec. Au sein de ces organismes ont été rencontrés des acteurs syndicaux, patronaux et gouvernementaux. L’entretien a été retenu comme la méthode de collecte de données utilisée auprès des individus (Gavard-Perret, Gotteland, Haon et Jolibert, 2008) et plus spécifiquement, des entretiens semi-directifs auprès des répondants afin de leur laisser la liberté de s’exprimer de façon plus large sur les questions et possiblement apporter de nouveaux éléments pouvant enrichir le modèle. La méthode de l’appariement logique sert à analyser les réponses aux questionnaires d’entrevues (Yin, 1994) et à les comparer aux propositions de recherche. Au plan théorique, l’apport des théories néo-institutionnalistes permet d’approfondir nos constats en lien avec la naissance et le développement des institutions de dialogue social. L’analyse de nos résultats nous permet de vérifier la théorie sur la création des institutions qui se veut la prise de conscience d’une problématique par les acteurs qui perçoivent leur implication au sein des institutions comme une façon de résoudre cette situation. Nous vérifions également la notion d’acteur dominant via le double rôle de l’acteur gouvernemental comme participant et comme donneur d’argent. Finalement, notre recherche a permis de confirmer notre modèle d’analyse tout en le raffinant par l’ajout de nouveaux facteurs déterminants de la concertation économique. Les entrevues que nous avons réalisées nous ont permis d’apporter des nuances et de préciser la portée des facteurs déterminants tirés de la littérature. Notre analyse confirme trois de nos propositions de recherche telle que formulées et deux autres le sont que partiellement. Nos constats confirment en effet que la volonté réelle des parties à travailler ensemble, la présence d’intérêts communs et la participation de l’État sont tous des facteurs qui ont un impact positif sur la concertation économique. La question de la confiance est nécessaire pour la poursuite de la concertation. En appui aux travaux antérieurs sur la question, nous avons observé que la confiance entre les acteurs influence positivement le déroulement de la concertation économique. Nous avons toutefois constaté qu’un certain niveau de méfiance réside entre les acteurs qui participent à ce processus, ces derniers représentant des organisations distinctes qui ont leurs intérêts propres. Pour permettre la concertation entre acteurs, le niveau de confiance doit être plus élevé que le niveau de méfiance. Nos observations nous ont aussi permis d’établir des liens entre la présence des facteurs déterminants et l’atteinte de résultats par la concertation, mais nous ne pouvons pas déterminer leur importance relative: nous ne pouvons donc pas prétendre qu’un plus grand nombre de facteurs réunis va assurer la réussite du processus de concertation ou s’il s’agit plutôt de la présence de certains facteurs qui auraient plus d’impact sur les résultats. Notre recherche fournit un apport important à la littérature sur la concertation puisqu’elle a permis de cerner de nouveaux facteurs déterminants à la réussite de ce processus. Les entretiens réalisés ont montré que le « contrôle des égos » des acteurs de la concertation et la mise en place de mécanismes permettant une intégration réussie des nouveaux participants au processus constituent des facteurs à ne pas négliger. De plus, notre recherche a permis de raffiner notre modèle conceptuel puisque nous avons été en mesure de cerner différents sous-facteurs qui permettent d’approfondir l’analyse des facteurs déterminants de la concertation. Notre recherche comporte toutefois certaines limites puisque les institutions comparées présentent des différences importantes en termes de culture et le nombre restreint d’organisme étudié limite grandement la généralisation des résultats.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nombreux travailleurs sont exposés aux hydrocarbures aromatiques polycycliques (HAP). Le benzo(a)pyrène (BaP) fait partie de ce groupe de polluants. Cette substance a été classée cancérogène reconnu chez l’humain. Pour évaluer l'exposition aux HAP cancérogènes, plusieurs chercheurs ont proposé d’utiliser la mesure du 3-hydroxybenzo(a)pyrène (3-OHBaP) dans l’urine des travailleurs exposés. Dans le cadre du présent projet, deux approches de modélisation ont été développées et appliquées pour permettre une meilleure compréhension de la toxicocinétique du BaP et son biomarqueur d’intérêt actuel, le 3-OHBaP, et pour aider à interpréter les résultats de surveillance biologique. Un modèle toxicocinétique à plusieurs compartiments a été développé sur la base des données préalablement obtenues sur le rat par notre groupe. Selon le modèle, le BaP injecté par voie intraveineuse est rapidement distribué du sang vers les tissus (t½ ≈ 4 h), avec une affinité particulière pour les poumons et les composantes lipidiques des tissus. Le BaP est ensuite distribué vers la peau et le foie. Au foie, le BaP est promptement métabolisé et le 3-OHBaP est formé avec une demi-vie de ≈ 3 h. Le métabolisme pulmonaire du BaP a également été pris en compte, mais sa contribution à la cinétique globale du BaP a été jugée négligeable. Une fois formé, le 3-OHBaP est distribué vers les différents organes presque aussi rapidement que la molécule mère (t½ ≈ 2 h). Le profil temporel du 3-OHBaP dans le rein montre une accumulation transitoire en raison de la différence observée entre le taux d’entrée (t½ = 28 min) et le taux de sortie (t½ = 4,5 h). La clairance totale de 3-OHBaP du corps est principalement gouvernée par le taux de transfert de la bile vers le tractus gastro-intestinal (t½ ≈ 4 h). Le modèle toxicocinétique à plusieurs compartiments a réussi à simuler un ensemble indépendant de profils urinaires publiés sur le 3-OHBaP. Ce modèle toxicocinétique à compartiments s'est avéré utile pour la determination des facteurs biologiques déterminants de la cinétique du BaP et du 3-OHBaP. Par la suite, un modèle pharmacocinétique à base physiologique (PCBP) reproduisant le devenir du BaP et du 3-OHBaP chez le rat a été construit. Les organes (ou tissus) représentés comme des compartiments ont été choisis en fonction de données expérimentales obtenues in vivo chez le rat. Les coefficients de partition, les coefficients de perméabilité, les taux de métabolisation, les paramètres d'excrétion, les fractions absorbées et les taux d'absorption pour différentes voies d’exposition ont été obtenus directement à partir des profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP. Les valeurs de ces derniers paramètres ont été calculées par des procédures Monte-Carlo. Des analyses de sensibilité ont ensuite été réalisées pour s’assurer de la stabilité du modèle et pour établir les paramètres les plus sensibles de la cinétique globale. Cette modélisation a permis d’identifier les facteurs déterminants de la cinétique: 1) la sensibilité élevée des paramètres de la métabolisation hépatique du BaP et du 3-OHBaP ainsi que du taux d'élimination; 2) la forte distribution du BaP dans les poumons par rapport à d'autres tissus; 3) la distribution considérable du BaP dans les tissus adipeux et le foie; 4) la forte distribution du 3-OHBaP dans les reins; 5) le transfert limité du BaP par la diffusion tissulaire dans les poumons; 6) le transfert limité du 3-OHBaP par la diffusion tissulaire dans les poumons, les tissus adipeux et les reins; 7) la recirculation entéro-hépatique significative du 3-OHBaP. Suite à des analyses de qualité des ajustements des équations du modèle aux données observées, les probabilités que les simulations reproduisent les données expérimentales par pur hasard se sont avérées toujours inférieures à 10% pour les quatre voies d’exposition : intraveineuse, orale, cutanée et respiratoire. Nous avons extrapolé les modèles cinétiques du rat à l’humain afin de se doter d’un outil permettant de reconstituer les doses absorbées chez des travailleurs exposés dans diverses industries à partir de mesures de l'évolution temporelle du 3-OHBaP dans leur urine. Les résultats de ces modélisations ont ensuite été comparés à ceux de simulations obtenues avec un modèle toxicocinétique à compartiment unique pour vérifier l’utilité comparative d’un modèle simple et complexe. Les deux types de modèle ont ainsi été construits à partir de profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP sur des rats exposés. Ces données ont été obtenues in vivo par voie intraveineuse, cutanée, respiratoire et orale. Ensuite, les modèles ont été extrapolés à l’humain en tenant compte des déterminants biologiques essentiels des différences cinétiques entre le rat et l’humain. Les résultats ont montré que l'inhalation n'était pas la principale voie d'exposition pour plusieurs travailleurs étudiés. Les valeurs de concentrations de BaP dans l’air utilisées afin de simuler les profils d’excrétion urinaire chez les travailleurs étaient différentes des valeurs de concentrations de BaP mesurées dans l’air. Une exposition au BaP par voie cutanée semblait mieux prédire les profils temporels observés. Finalement, les deux types de modélisation se sont avérés utiles pour reproduire et pour interpréter les données disponibles chez des travailleurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons quelques analyses théoriques récentes ainsi que des observations expérimentales de l’effet tunnel quantique macroscopique et des tran- sitions de phase classique-quantique dans le taux d’échappement des systèmes de spins élevés. Nous considérons les systèmes de spin biaxial et ferromagnétiques. Grâce à l’approche de l’intégral de chemin utilisant les états cohérents de spin exprimés dans le système de coordonnées, nous calculons l’interférence des phases quantiques et leur distribution énergétique. Nous présentons une exposition claire de l’effet tunnel dans les systèmes antiferromagnétiques en présence d’un couplage d’échange dimère et d’une anisotropie le long de l’axe de magnétisation aisé. Nous obtenons l’énergie et la fonc- tion d’onde de l’état fondamentale ainsi que le premier état excité pour les systèmes de spins entiers et demi-entiers impairs. Nos résultats sont confirmés par un calcul utilisant la théorie des perturbations à grand ordre et avec la méthode de l’intégral de chemin qui est indépendant du système de coordonnées. Nous présentons aussi une explica- tion claire de la méthode du potentiel effectif, qui nous laisse faire une application d’un système de spin quantique vers un problème de mécanique quantique d’une particule. Nous utilisons cette méthode pour analyser nos modèles, mais avec la contrainte d’un champ magnétique externe ajouté. La méthode nous permet de considérer les transitions classiques-quantique dans le taux d’échappement dans ces systèmes. Nous obtenons le diagramme de phases ainsi que les températures critiques du passage entre les deux régimes. Nous étendons notre analyse à une chaine de spins d’Heisenberg antiferro- magnétique avec une anisotropie le long d’un axe pour N sites, prenant des conditions frontière périodiques. Pour N paire, nous montrons que l’état fondamental est non- dégénéré et donné par la superposition des deux états de Néel. Pour N impair, l’état de Néel contient un soliton, et, car la position du soliton est indéterminée, l’état fondamen- tal est N fois dégénéré. Dans la limite perturbative pour l’interaction d’Heisenberg, les fluctuations quantiques lèvent la dégénérescence et les N états se réorganisent dans une bande. Nous montrons qu’à l’ordre 2s, où s est la valeur de chaque spin dans la théorie des perturbations dégénérées, la bande est formée. L’état fondamental est dégénéré pour s entier, mais deux fois dégénéré pour s un demi-entier impair, comme prévu par le théorème de Kramer

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La baisse de la fécondité permet aux couples d'investir davantage dans la scolarité de chacun de leurs enfants (évidence dans les pays occidentaux, d’Asie et d’Amérique latine). Ce postulat est l’un des arguments clés des politiques de planification familiale en Afrique subsaharienne. Pourtant, la plupart des études sur l'Afrique ont trouvé une corrélation nulle ou même une relation positive entre le nombre d'enfants dans un ménage et leur niveau de scolarité. Ces résultats mitigés sont généralement expliqués par des solidarités familiales et des transferts de ressources qui pourraient réduire la pression occasionnée par une descendance nombreuse sur les ressources du ménage, et des problèmes méthodologiques inhérents à plusieurs recherches sur la région. L’objectif principal de cette thèse était d’apporter une contribution à une meilleure compréhension des aspects méthodologiques et substantiels relatifs aux liens entre fécondité et scolarisation. Spécifiquement, la thèse visait à évaluer 1) le rôle des réseaux familiaux dans la scolarisation des enfants, 2) la simultanéité des décisions portant sur le nombre d’enfants et leur scolarisation, 3) l’impact causal du nombre d’enfants sur leur scolarisation, et 4) à comprendre les perceptions des parents sur l’école et les coûts et bénéfices de l’éducation des enfants, et dans quelle mesure ces perceptions sont prises en compte dans leurs stratégies reproductives. Quatre articles ont été rédigés en utilisant quatre sources de données complémentaires : l’Observatoire de population de Ouagadougou (OPO), l’enquête Demtrend, l’enquête santé de base et une enquête qualitative, toutes adossées à l’OPO. Dans le premier article, il est ressorti que les familles de grande taille bénéficient d’un appui plus fréquent des réseaux familiaux pour la scolarisation. De plus, les réseaux familiaux seraient en mesure de compenser l’effet négatif d’un nombre élevé d’enfants sur la scolarisation, mais seulement pour une partie de la population qui exclut les plus pauvres. Ainsi, les solidarités familiales de soutien à la scolarisation des enfants sont loin d’être généralisées. Le deuxième article a montré que les enfants dont les mères ont intentionnellement limité leur fécondité avaient de meilleures chances de scolarisation que ceux dont les mères ont connu des problèmes d’infécondité secondaire et n’ont pas atteint leur nombre d’enfants désiré. Par conséquent, les aspirations scolaires ne sont pas indépendantes des décisions de fécondité et l’hypothèse de fécondité naturelle n’est plus tenable dans ce contexte. Le troisième article a révélé, contrairement à la plupart des études antérieures sur l’Afrique subsaharienne, un effet négatif net de la taille de la fratrie sur le niveau d’éducation atteint des enfants, effet qui se renforce d’ailleurs au fur et à mesure que l’on avance dans le système éducatif. Dans le quatrième article, le discours des participants à l’enquête qualitative a indiqué que l’émergence de cette relation négative entre le nombre d’enfants et leur scolarisation dans les quartiers périphériques de Ouagadougou est intimement liée aux changements dans les coûts et bénéfices de l’éducation des enfants qui font reposer dorénavant de façon presque exclusive les dépenses scolaires sur les parents biologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a global context of climate change and energy transition, Quebec seems to be privileged, producing a large amount of cheap hydroelectricity. But aside from the established popular belief that Quebec’s energy is abundant, clean and inexpensive, Quebec’s energy future is still precarious. Within a few decades, Quebec will have to import a significant amount of electricity at a higher price than it actually produces it; the cheap exploitable hydro resources will not only get scarcer if not nonexistent; and the national hydroelectric ``cultural`` heritage even seems to quell the development of alternative energies, letting few space for local innovation coming from municipalities. While in many countries, municipalities are recognised as key figures in the energy sector, here, in Quebec, their role in the national energy system seems marginal. As main actors responsible for territorial planning, it seams that municipalities could play a more important role on Quebec’s energy scene. So they can densify their territory, develop active and collective solutions to transportation issues, they can adopt exemplary energetic habits, they can produce their own energy with wind, solar or even district heating systems. District heating and heat networks being less well know and documented in Quebec, the present study aims at explaining their low penetration level in the Quebec energy landscape. The study also attempts to understand what are the main hurdles to the implementation of district heating in Quebec’s particular energetic context. Finally, the research tries to open a discussion on the motives that could incite municipalities to adopt district heating as an energy alternative. Based on some twenty interviews with key actors of the energy and municipal sectors, the findings give some indications that the low penetration level of district heating in the Quebec municipalities could explain itself in part by : the low priced hydroelectricity, the presence of a comfortable, sufficient and pervasive Hydro-Quebec(er) culture, and also by organizational dynamic and a certain political inertia which limit the appropriation of an energy competence by local governments. In turn, the study shows that district heating solutions are more likely to develop in contexts in which : there are minimum urban or energy density levels; the development of district heating coincides with the local or regional economic structure; and where exist a mobilising local leader or local visions from a community in favor of the implementation of alternative energy systems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bauhinia s.l. est le plus vaste genre de la tribu des Cercideae (Ceasalpinioideae, Leguminoseae), avec plus de 300 espèces. Il présente une distribution pantropicale et une grande variabilité morphologique. Ces deux caractéristiques ont limité les études taxonomiques sur le genre complet, résultant en plusieurs études taxonomiques de certains groupes seulement. En 1987, Wunderlin et al. proposent une vaste révision taxonomique de la tribu des Cercideae, basée sur des données morphologiques, et divisent le genre Bauhinia en quatre sous-genres. En 2005, Lewis et Forest publient une nouvelle classification préliminaire basée sur des données moléculaires, mais sur un échantillonnage taxonomique restreint. Leurs conclusions remettent en question le monophylétisme du genre Bauhinia et suggèrent plutôt la reconnaissance de huit genres au sein du grade Bauhinia s.l. Afin de vérifier les hypothèses de Lewis et Forest, et obtenir une vision plus claire de l’histroire de Bauhinia s.l., nous avons séquencé deux régions chloroplastiques (trnL-trnF et matK-trnK) et deux régions nucléaires (Leafy et Legcyc) pour un vaste échantillonnage représentatif des Cercideae. Une première phylogénie de la tribu a tout d’abord été réalisée à partir des séquences de trnL-trnF seulement et a confirmé le non-monoplylétisme de Bauhinia s.l., avec l’inclusion du genre Brenierea, traditionnellement reconnu comme genre frère de Bauhinia s.l. Afin de ne pas limiter notre vision de l’histoire évolutive des Cercideae à un seul type de données moléculaires et à une seule région, une nouvelle série d’analyse a été effectuée, incluant toutes les séquences chloroplastiques et nucléaires. Une phylogénie individuelle a été reconstruite pour chacune des régions du génome, et un arbre d’espèce ainsi qu’un arbre de supermatrice ont été reconstruits. Bien que certaines contradictions apparaissent entre les phylogénies, les grandes lignes de l’histoire des Cercideae ont été résolues. Bauhinia s.l. est divisée en deux lignées : les groupes Phanera et Bauhinia. Le groupe Bauhinia est constitué des genres Bauhinia s.s., Piliostigma et Brenierea. Le groupe Phanera est constitué des genres Gigasiphon, Tylosema, Lysiphyllum, Barklya, Phanera et Schnella. Les genres Cercis, Adenolobus et Griffonia sont les groupes-frères du clade Bauhinia s.l. Au minimum un événement de duplication de Legcyc a été mis en évidence pour la totalité de la tribu des Cercideae, excepté Cercis, mais plusieurs évènements sont suggérés à la fois par Legcyc et Leafy. Finalement, la datation et la reconstruction des aires ancestrales de la tribu ont été effectuées. La tribu est datée de 49,7 Ma et est originaire des régions tempérées de l’hémisphère nord, probablement autour de la mer de Thétys. La tribu s’est ensuite dispersée vers les régions tropicales sèches de l’Afrique, où la séparation des groupes Bauhinia et Phanera a eu lieu. Ces deux groupes se sont ensuite dispersés en parallèle vers l’Asie du sud-est au début du Miocène. À la même période, une dispersion depuis l’Afrique de Bauhinia s.s. a permis la diversification des espèces américaines de ce genre, alors que le genre Schnella (seul genre américain du groupe Phanera) est passé par l’Australie afin de rejoindre le continent américain. Cette dispersion vers l’Australie sera également à l’origine des genres Lysiphyllum et Barklya

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).