984 resultados para Problèmes cardiovasculaires
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Resumo:
La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.
Resumo:
Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.
Resumo:
Cette thèse vise à étudier les liens entre les rêves dysphoriques (p. ex. : cauchemars et mauvais rêves), les rêves récurrents et l’ajustement psychosocial chez les enfants et les adolescents. Elle comporte un article présentant une recension des écrits ainsi que quatre articles empiriques. Le premier article présente une recension des études ayant investigué les rêves dysphoriques chez les enfants et les adolescents, avec une attention particulière portée sur leur prévalence, leurs corrélats ainsi que les options de traitement. Cette revue de la littérature permet de constater que plus de la moitié des jeunes rapportent des rêves dysphoriques. Même s’ils touchent beaucoup de jeunes, les rêves dysphoriques ne sont pas pour autant insignifiants. En effet, les enfants et les adolescents ayant des rêves dysphoriques ont aussi plus de problèmes reliés au sommeil et plus de problèmes au niveau de leur ajustement psychosocial. Finalement, l’article relève quelques recherches sur les traitements des rêves dysphoriques chez les jeunes qui offrent des résultats prometteurs. Le deuxième article vise à examiner les liens entre les rêves dysphoriques et diverses variables d’ajustement psychosocial en prenant en compte certaines limites méthodologiques d’études précédentes dans le domaine (et mises de l’avant dans l’article 1). De plus, il examine le possible lien modérateur de l’émotivité négative (traduction libre de « emotional negativity ») entre les rêves dysphoriques et l’ajustement psychosocial. Les résultats de cette étude montrent que les rêves dysphoriques sont liés à certains troubles intériorisés et que l’émotivité négative modère le lien entre les rêves dysphoriques et les troubles extériorisés. Le troisième article s’attarde aux rêves récurrents chez les enfants et les adolescents, phénomène très peu étudié à ce jour. Plus précisément, la prévalence et la fréquence des rêves récurrents chez les jeunes âgés entre 11 et 14 ans sont répertoriées et leur contenu, thématiques et tonalité émotionnelle sont examinés. Cet article démontre que les rêves récurrents touchent environ un tiers des jeunes et que leur contenu est principalement négatif. Le quatrième article vise à déterminer si, comme chez les adultes, les rêves récurrents chez les enfants sont associés à un déficit dans l’ajustement psychosocial. Les résultats montrent que les rêves récurrents sont liés à l’agressivité réactive chez les garçons, mais qu’ils ne sont pas liés à des variables d’ajustement psychosocial chez les filles. Le cinquième et dernier article a comme but de déterminer si, comme démontré chez les adultes, les rêves dysphoriques sont associés aux idéations suicidaires chez les préadolescents et d’explorer la possibilité que les rêves récurrents soient eux aussi liés aux idéations suicidaires. Les résultats démontrent que les rêves dysphoriques ainsi que les rêves récurrents sont liés aux pensées suicidaires chez des préadolescents de 12 et 13 ans. Suite à ces cinq articles, les résultats ainsi que les conclusions qui en découlent sont intégrés à la littérature existante sur les rêves, leurs significations au plan théorique et clinique sont explorées, et des études futures sont proposées.
Resumo:
Au cours des 30 dernières années, l’embonpoint et l’obésité infantile sont devenus de véritables défis pour la santé publique. Bien que l’obésité soit, à la base, un problème physiologique (i.e. balance calorique positive) une série de facteurs psychosociaux sont reliés à son développement. Dans cette thèse, nous avons étudié le rôle des facteurs périnataux et de la petite enfance dans le développement du surpoids, ainsi que la relation entre le surpoids et les troubles internalisés au cours de l’enfance et au début de l’adolescence. Nous avions trois objectifs généraux: 1) Modéliser le développement de l’indice de masse corporelle (IMC) ou du statut pondéral (le fait d’être en surpoids ou non) durant l’enfance, ainsi qu’estimer l’hétérogénéité dans la population au cours du temps (i.e. identification de trajectoires développementales de l’IMC). 2) Identifier les facteurs périnataux et de la petite enfance pouvant accroitre le risque qu’un enfant suive une trajectoire menant au surpoids adolescente. 3) Tester la possibilité que le surpoids durant l’enfance soit associé avec des problèmes de santé mentale internalisés à l’adolescence, et vérifier la possibilité qu’une telle association soit médiatisée par l’expérience de victimisation par les pairs et l’insatisfaction corporelle. Ce travail est mené dans une perspective de développement au cours de la vie (life span perspective), considérant l’accumulation des facteurs de risques au cours du temps ainsi que les facteurs qui se manifestent durant certaines périodes critiques de développement.1,2 Nous avons utilisé les données provenant de l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ), une cohorte de naissances de la province de Québec, Canada. L’échantillon initial était composé de 2120 familles avec un bébé de 5 mois nés au Québec en 1997. Ces familles ont été suivies annuellement ou à tous les deux ans jusqu’à ce que les enfants atteignent l’âge de 13 ans. En ce qui concerne le premier objectif de recherche, nous avons utilisé la méthode des trajectoires développementales fondée sur des groupes pour modéliser l’IMC en continu et en catégories (surpoids vs poids normal). Pour notre deuxième objectif, nous avons effectué des modèles de régression multinomiale afin d’identifier les facteurs périnataux et de la petite enfance associés aux différents groupes développementaux du statut pondéral. Les facteurs de risques putatifs ont été choisis parmi les facteurs identifiés dans la littérature et représentent l’environnement périnatal, les caractéristiques de l’enfant, ainsi que l’environnement familial. Ces facteurs ont été analysés longitudinalement dans la mesure du possible, et les facteurs pouvant servir de levier potentiel d’intervention, tels que l’usage de tabac chez la mère durant la grossesse, le sommeil de l’enfant ou le temps d’écoute de télévision, ont été sélectionnés pour l’analyse. Pour notre troisième objectif, nous avons examiné les associations longitudinales (de 6 à 12 ans) entre les scores-z d’IMC (selon la référence CDC 2000) et les problèmes internalisés avec les modèles d’équations structurales de type « cross-lagged ». Nous avons ensuite examiné comment la victimisation par les pairs et l’insatisfaction corporelle durant l’enfance peuvent médiatiser un lien potentiel entre le surpoids et les troubles internalisés au début de l’adolescence. Les contributions scientifiques de la présente thèse incluent l’identification de trajectoires distinctes du statut pondérale durant l’enfance (précoce, tardive, jamais en surpoids), ainsi que les facteurs de risques précoces et les profils de santé mentale pouvant différer selon la trajectoire d’un enfant. De plus, nous avons identifié des mécanismes importants qui expliquent une partie de l’association entre les trajectoires de surpoids et les troubles internalisés: la victimisation par les pairs et l’insatisfaction corporelle.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
L’effondrement des repères artistiques (que plusieurs associent aux premiers ready-made de Marcel Duchamp) dévoile les symptômes d’une crise de l’art. Comme l’histoire de l’art est en quelque sorte la représentation de ce que nous sommes, on peut raisonnablement penser que la crise s’étend bien au-delà de l’art. Toutefois, l’art possède un éclairage puissant, car il illustre, littéralement, plusieurs problèmes notamment au niveau du jugement et de la raison. Faute de repères, le monde contemporain manquerait-il de discernement ? Cette question est tout à fait légitime dans le contexte actuel où tout et n’importe quoi semblent pouvoir être élevés au rang de l’Art. Le culte que l’on voue à l’individu paraît être l’une des causes du problème. On observe qu’en régime de singularité (pour reprendre l’expression de la sociologue de l’art, Nathalie Heinich) les relations du monde de l’art sont de plus en plus conflictuelles : lorsqu’on demande à un artiste de justifier son propre travail, la rationalité devient nécessairement instrumentale ; on rend également caduc le rôle du critique et des institutions. Ce mémoire s’intéresse à analyser, dans une perspective philosophique, les différentes manifestations de la crise de l’art et ses enjeux dans le monde actuel.
Resumo:
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.
Resumo:
Ce mémoire propose une étude de la théorie de l’individualité biologique développée par Turner, des problèmes inhérents à celle-ci ainsi qu’une approche qui permet de surmonter les problèmes de la théorie de Turner tout en prenant en compte les aspects importants de cette dernière. Nous montrerons en premier lieu pourquoi, selon Turner, l’individualité est une question écologique et que l’individu ne peut être compris sans ses parties abiotiques si celles-ci jouent un rôle dans la fonctionnalité de l’individu. Par la suite, nous démontrerons que l’approche de Turner est sujette au problème du paradigme développé par Haber. Enfin, en s’inspirant de la théorie de l’individualité de Dupré et O’Malley et de leurs études sur les bactéries, nous forgerons une nouvelle théorie portée sur la fonctionnalité, qualifiée d’approche méréologique, qui surmonte les problèmes exposés tout en prenant en compte le rôle que les parties abiotiques jouent dans le fonctionnement de l’individu.
Resumo:
Cette thèse est une réflexion d’épistémologie sociale sur la construction des savoirs professionnels et expérientiels portant sur les problèmes de santé mentale ainsi qu’une exploration de leurs rapports à partir d’un projet de recherche montréalais. Ce projet fédéral de recherche et de démonstration visait à évaluer l’impact de l’approche Logement d’abord auprès de personnes avec des problèmes de santé mentale en situation d’itinérance. À Montréal, des pairs, avec une expérience vécue des réalités de la santé mentale et de l’itinérance, ont été impliqués dans le projet de recherche aux côtés d’intervenants, de gestionnaires et de chercheurs. Au fil des mois, leur présence a eu des effets contrastés, contribuant parfois à renforcer les barrières entre les savoirs et les hiérarchies professionnelles en présence dans le projet, et, à d’autres occasions, à les surmonter et entrer dans un processus de co-production de nouveaux savoirs et pratiques. L’analyse des rapports entre les savoirs en présence dans le projet souligne leur caractère complémentaire dans l’intervention publique dans le domaine des services sociaux et de la santé et les forces de l’approche expérimentale mise en oeuvre. La thèse offre également une contribution à la littérature sur la participation citoyenne en proposant une réflexion sur la capacité des citoyens à transformer les institutions publiques. Les données analysées sont issues d’un terrain de deux ans mêlant observations de la participation des pairs et une cinquantaine d’entretiens individuels et collectifs réalisés auprès de pairs aidants, intervenants, chefs d’équipe, psychiatres, gestionnaires et chercheurs.
Resumo:
Introduction. L’ostéoporose est une maladie chronique habituellement asymptomatique jusqu’à ce qu’il y ait fracture de fragilisation (FF). Ces fractures engendrent des coûts importants dont une partie pourrait être évitée par la prise en charge de ces patients pour l’ostéoporose. L’implantation d’un programme de prévention des fractures subséquentes géré par des infirmières en orthopédie pourrait permettre de parer à ces problèmes. Objectifs. L’objectif principal de ce projet était de déterminer si une infirmière peut gérer de façon efficace et sécuritaire un service de liaison pour fracture. Méthode. Les décisions cliniques d’infirmières entre 2010 et 2012 pour 525 patients d’un service de liaison pour fracture à l’étude ont été évaluées par deux médecins spécialistes indépendants avec expertise dans les soins pour l’ostéoporose. Résultats. Les infirmières ont pu identifier la totalité des sujets à risque et référer 26.7% de ceux-ci à un spécialiste. L’accord entre chacun des évaluateurs et les infirmières était de >97%. Les évaluateurs ont donné les mêmes réponses à >96% pour chaque type de décision et le niveau d’accord inter-juge était presque parfait (AC1 >0.960). Aucune référence n’a été jugée inutile. Les comorbidités majeures ont toutes été prises en charge. Conclusion. L’accord élevé entre les décisions cliniques des infirmières et des médecins évaluateurs démontre que la prise en charge par une infirmière est sécuritaire et recommandable pour les patients avec FF. Ce type d’intervention pourrait contribuer à résoudre les problèmes d’accessibilité aux soins chez les patients avec fragilité osseuse, ainsi qu’à diminuer le fardeau économique que représente le traitement des FF pour la société.
Resumo:
De par sa présence dans tous les vaisseaux sanguins, l'endothélium joue un rôle clef dans le processus d’hémostase, tant par sa libération de facteurs anticoagulants que par ses changements protéiques qui permettent à l’organisme de déclencher la réparation tissulaire. La fonction anticoagulante de l’endothélium peut être mise en défaut en cas d’atteinte de son intégrité, entrainant la formation de thrombus, le rejet précoce de greffes ou encore l’induction de l’athérosclérose. L’intégrité de l’endothélium est donc capitale pour la prévention de nombreuses maladies cardiovasculaires. Chez l’adulte, les cellules endothéliales (CE), normalement quiescentes, sont rapidement activées en cas d’hypoxie ou d’inflammation, leur permettant ainsi d’amorcer le processus angiogénique comme suit: Tout d’abord, l’induction de l’hyperperméabilité vasculaire permet l’extravasation des protéines plasmatiques. Ensuite, la dégradation de la lame basale par des métalloprotéases permet aux CE de se détacher, de proliférer, de migrer et de s’organiser pour former l’ébauche du futur vaisseau. La dernière étape consiste en la maturation du vaisseau, c’est-à-dire son recouvrement par des cellules murales, telles que les cellules musculaires lisses et les péricytes. Ces processus sont régulés par de nombreux facteurs angiogéniques tels que les membres de la famille Notch, du vascular endothelial growth factor (VEGF), du fibroblast growth factor (FGF), des angiopoïétines, et des matrix metalloproteases (MMP). L’angiogenèse pathologique, soit une insuffisance ou un excès de vascularisation, est impliquée dans les blessures chroniques, les accidents cardiovasculaires, les pathologies coronariennes artérielles, les pathologies tumorales, l’arthrite rhumatoïde, la rétinopathie diabétique, l’athérosclérose, le psoriasis et l’asthme. Ces pathologies sont souvent issues d’une dérégulation de l’activité endothéliale, fréquemment observée conjointement à l’expression continue de molécules d’adhésion leucocytaires, à l’augmentation de la perméabilité vasculaire, et aux anomalies de la vasoréactivité. L’activation non-contrôlée de l’endothélium entraîne ainsi une inflammation chronique et la formation de structures vasculaires anarchiques. Les premiers leucocytes à répondre à l’appel inflammatoire sont les neutrophiles. Equippées d’une panoplie de produits antibactériens puissants mais aussi nocifs pour les tissus qui les entourent, ces cellules polylobées participent à chaque étape du processus inflammatoire, depuis l’induction de l’hyperperméabilité vasculaire jusqu’à la résolution. En effet, grâce à leurs récepteurs, les neutrophiles détectent et interprètent les signaux biochimiques présents dans la circulation et à la surface de l’endothélium, et libèrent aussi leurs propres médiateurs tels le VEGF, les MMP, et l’interleukine-8 (IL-8), dont les effets sont à la fois paracrines et autocrines. Existent-ils d’autres modulateurs typiques de la fonction endothéliale capables d’influencer le comportement des neutrophiles? En effet, notre laboratoire a démontré que chez l’humain, une stimulation directe aux angiopoïétines incitait les neutrophiles à adhérer aux CE, à migrer, à synthétiser et à relâcher l’IL-8, voire même à vivre plus longtemps. La présence du récepteur des angiopoïétines, Tie2, à la surface des neutrophiles laisse présager que la famille possèderait d’autres fonctions leucocytaires encore non-identifiées. Par ailleurs, dans un modèle classique de l’angiogenèse in vivo (matrigel), nous avons observé que sous l’effet du FGF1 et 2, les ébauches des nouveaux vaisseaux étaient parfois accompagnées d’une infiltration de cellules granulocytaires. Ainsi, en partant de ces observations, l’objectif de nos études (présentées ci-après) était d’approfondir nos connaissances sur la relation entre neutrophiles et facteurs angiogéniques, notamment les FGF et les angiopoïétines. Par tests in vitro, nous avons confirmé que les neutrophiles humains exprimaient plusieurs récepteurs du FGF (FGFR1-4) d’une façon hétérogène, et qu’ils migraient vers un gradient des ligands FGF1 et 2. Par ailleurs, nous nous sommes intéressés aux voies de signalisation inflammatoires activées par les ligands FGF1, FGF2, Ang1 et Ang2. Grâce à une stratégie génique ciblant 84 gènes inflammatoires, nous avons identifié plusieurs cibles d’intérêt touchées par Ang1, dont certains membres de la famille de l’IL-1, alors qu’aucun des gènes testés n’avait changé de façon significative sous l’effet des FGF ou d’Ang2. Suite à des cinétiques approfondies, nous avons démontré qu’Ang1 stimulait la transcription de l’ARN messager de l’IL-1β, et augmentait simultanément la quantité de protéine immature (pro-IL-1β; inactive) et clivée (IL-1β « mature »; active). En parallèle, Ang1 augmentait la sécrétion de l’antagoniste naturel de l’IL-1β, l’IL-1RA, sans pour autant stimuler la relâche de l’IL-1β. A l’instar des endotoxines bactériennes dont les effets liés à l’IL-1 dépendaient de la kinase p38, ceux d’Ang1 découlaient presque entièrement des voies de signalisation du p42/44.