445 resultados para Commande optimale linéaire-quadratique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. L’objectif est de comprendre comment les intervenants en relation d’aide et les agents des forces de l’ordre composent avec la violence au travail et le stress lié à l’imputabilité. Un cadre théorique basé sur l’identité professionnelle est proposé afin de comprendre la modulation de la santé psychologique au travail et testé via le Professional Quality of Life des intervenants en protection de la jeunesse. Les facteurs de prédiction de la banalisation de la violence au travail et des impacts psychologiques de cette banalisation sont également étudiés. Méthodologie. Un sondage mené auprès d’un échantillon représentatif constitué de 301 intervenants en protection de la jeunesse a permis d’examiner le Professional Quality of Life. Les effets de l’exposition à la violence en milieu de travail, à l’exposition au matériel traumatique et du stress lié à l’imputabilité sur la fatigue de compassion ont été analysés à l’aide d’équation structurelle. Les effets indirects attribuables au genre, au soutien organisationnel perçu, à l’adhésion à l’identité professionnelle, aux stratégies d’adaptation et à la confiance en ses moyens pour gérer un client agressif ont été mesurés. Pour l’examen des facteurs de prédiction de la banalisation de la violence au travail, les résultats d’un sondage mené auprès de 1141 intervenants en relation d’aide et des forces de l’ordre ont été analysés à l’aide de régression linéaire. L’analyse des réponses des 376 intervenants de cet échantillon ayant rapporté avoir été perturbé par un acte de violence au travail a permis de mesurer l’impact de la banalisation sur les conséquences psychologiques suite à une victimisation au travail. Les effets indirects attribuables à la banalisation de la violence ont été mesurés. Des analyses différenciées en fonction du sexe ont également été menées. Résultats. L’exposition à la violence, le sentiment d’imputabilité et l’évitement amplifiaient la fatigue de compassion chez les intervenants en protection de la jeunesse sondés. Les attitudes masculines, l’adhésion à l’identité professionnelle, la confiance en ses moyens pour gérer les clients agressifs l’atténuaient. Quant aux facteurs de prédiction de la banalisation de la violence au travail, les participants masculins étaient plus enclins que les femmes à la normaliser. Les agents des forces de l’ordre percevaient davantage la violence comme tabou que les intervenants en relation d’aide. Les facteurs organisationnels avaient tous un effet négatif sur le tabou entourant la violence au travail. Finalement, l’âge, les victimisations antérieures, les blessures graves et percevoir la violence au travail comme un tabou augmentaient le nombre de conséquences psychologiques suite à une victimisation. Les analyses différenciées en fonction du sexe ont identifié des facteurs de prédiction spécifiques aux hommes et aux femmes. Implications. Lors de déploiement de stratégies organisationnelles afin d’aider les employés à gérer avec les stress liés au travail, les organisations doivent considérer l’identité professionnelle de leur travailleur ainsi que des différences en fonction du sexe et du genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les thiols à faible masse moléculaire (FMM) peuvent affecter la biodisponibilité du mercure et mener à une plus grande production de méthylmercure par les microorganismes méthylants. Les résultats d’une étude réalisée au sein de la matrice extracellulaire du périphyton de la zone littorale d’un lac des Laurentides ont démontré que les concentrations en thiols à FMM retrouvées dans cette matrice sont jusqu’à 1000 fois supérieures à celles de la colonne d’eau avoisinante. Ces thiols sont significativement corrélés à la chlorophylle a du périphyton, suggérant une production par les algues. Le mercure de la matrice extracellulaire, plus spécifiquement dans la fraction colloïdale mobile, est aussi corrélé aux thiols d’origine algale. Ces résultats suggèrent qu’une accumulation de thiols s’opère dans l’espace extracellulaire du périphyton et qu’ils peuvent favoriser le transfert du mercure vers les microorganismes produisant le méthylmercure. Les résultats d’une seconde étude menée sur les méthodes de préservation d’échantillons d’eau pour la conservation des thiols à FMM ont démontré que la température optimale d’entreposage était de -80 °C et que la lyophilisation menait à une sous-estimation des concentrations mesurées. Les taux de dégradation étaient plus rapides lors de la conservation à -20 °C et variables selon la chimie de l’eau utilisée et les espèces de thiols observées. Suivant ces résultats, nous proposons un cadre de recherche pour de futures études sur la spéciation du mercure dans le périphyton et nous suggérons des précautions lors de la manipulation et de la conservation des thiols à FMM d’échantillons naturels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers accompagnant le document sont en format Microsoft Excel 2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une turbine hydraulique, la rotation des aubes dans l’eau crée une zone de basse pression, amenant l’eau à passer de l’état liquide à l’état gazeux. Ce phénomène de changement de phase est appelé cavitation et est similaire à l’ébullition. Lorsque les cavités de vapeur formées implosent près des parois, il en résulte une érosion sévère des matériaux, accélérant de façon importante la dégradation de la turbine. Un système de détection de l’érosion de cavitation à l’aide de mesures vibratoires, employable sur les turbines en opération, a donc été installé sur quatre groupes turbine-alternateur d’une centrale et permet d’estimer précisément le taux d’érosion en kg/ 10 000 h. Le présent projet vise à répondre à deux objectifs principaux. Premièrement, étudier le comportement de la cavitation sur un groupe turbine-alternateur cible et construire un modèle statistique, dans le but de prédire la variable cavitation en fonction des variables opératoires (tels l’ouverture de vannage, le débit, les niveaux amont et aval, etc.). Deuxièmement, élaborer une méthodologie permettant la reproductibilité de l’étude à d’autres sites. Une étude rétrospective sera effectuée et on se concentrera sur les données disponibles depuis la mise à jour du système en 2010. Des résultats préliminaires ont mis en évidence l’hétérogénéité du comportement de cavitation ainsi que des changements entre la relation entre la cavitation et diverses variables opératoires. Nous nous proposons de développer un modèle probabiliste adapté, en utilisant notamment le regroupement hiérarchique et des modèles de régression linéaire multiple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Cycle de Kraven de Xavier Mauméjean met en place un réseau référentiel qui repose sur le recyclage systématique d’éléments historiques et littéraires. Afin de bien saisir le fonctionnement de ce cycle narratif, il importe de se pencher sur cette dynamique référentielle exacerbée relevant d’une poétique du recyclage (au sens de réutilisation) qui se manifeste par l’emprunt de nombreux référents historiques et littéraires, que le récit modifie à divers degrés. Au moyen de la notion de recyclage, des travaux sur la récupération de l’Histoire par l’uchronie et d’études sur le steampunk, esthétique dont relève le Cycle de Kraven, ce mémoire examine les effets de ce recyclage sur le fonctionnement du récit, mais aussi sur le lecteur. En effet, par un imposant mélange de références authentiques et fictives, le Cycle de Kraven cherche à mystifier le lecteur qui se trouve au centre d’un fourmillement intertextuel brouillant les frontières entre Histoire et fiction. Une réflexion sur le paratexte vient compléter l’analyse du Cycle de Kraven, puisque préface, notes en bas de page, liste de livres et bon de commande contribuent grandement à la création d’un effet de mystification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: L’arthrite juvénile idiopathique (AJI) est l’une des maladies chroniques auto-immune les plus répandues chez les enfants et est caractérisée par des enflures articulaires (maladie active), de la douleur, de la fatigue et des raideurs matinales pouvant restreindre leur niveau de participation aux activités quotidiennes (par exemple: les loisirs, l’activité physique, la mobilité et les soins personnels) à la maison comme à l’école. Participer aux activités de loisirs et à l’activité physique a des bienfaits au niveau de la santé et du développement de tous les enfants et démontrent aussi des effets positifs qui réduisent les symptômes des maladies chroniques telle l’AJI. Malgré ces bienfaits la participation aux loisirs chez les jeunes avec l’AJI demeure largement sous-étudiée. Objectifs: Cette étude vise à évaluer le niveau de participation aux loisirs et à l’activité physique chez les enfants et les adolescents atteints d’AJI, ainsi qu’à identifier les facteurs liés à la maladie, la personne et l’environnement. Méthodes : L’évaluation du niveau de participation et l’exploration des facteurs associés aux loisirs et à l’activité physique ont été complétés par l’entremise d’une revue systématique de la littérature, l’analyse de données d’un échantillon national représentatif d’enfants canadiens atteints d’arthrite âgés entre 5 et 14 ans (npondéré = 4350), ainsi que l’analyse standardisée du niveau de participation aux loisirs à l’aide du Children’s Assessment of Participation and Enjoyment (n=107) et la mesure objective de l’activité physique par accéléromètre (n=76) auprès d’un échantillon d’enfants (âgés entre 8 et 11 ans ) et d’adolescents (âgés entre 12 et 17 ans) suivis en clinique de rhumatologie à l’hôpital de Montréal pour enfants, Centre Universitaire de Santé McGill. Les résultats cliniques ont été comparés à des données normatives, ainsi qu’à un groupe contrôle sans AJI. Nous avons exploré les facteurs associés avec le niveau de participation aux loisirs et à l’activité physique en utilisant les modèles de régression linéaire multiple et l’analyse hiérarchique. Résultats : Les enfants et les adolescents atteints d’AJI participent à une multitude d’activités de loisirs; cependant ils sont moins souvent impliqués dans des activités physiques et de raffinement en comparaison aux autres types d’activités de loisirs. Ceux avec l’AJI étaient en général moins actifs que leurs pairs sans arthrite et la plupart n’atteignaient pas les recommandations nationales d’activité physique. Les garçons avec l’AJI participent plus souvent à des activités physiques et moins aux activités sociales, de raffinement et de développement de soi en comparaison avec les filles ayant l’AJI. En général, être un garçon, être plus âgé, avoir une meilleure motivation pour participer aux activités de motricité globale, avoir un statut socio-économique plus élevé et être d’origine culturelle canadienne sont associés à un niveau de participation plus élevé aux activités physiques. La préférence pour les activités de raffinement, un niveau d’éducation maternelle plus élevé et être une fille étaient associés à un niveau de participation plus élevé aux activités de raffinement. Conclusion: La participation aux loisirs et à l’activité physique en AJI est un concept complexe et semble surtout être expliqué par des facteurs personnels et environnementaux. L’identification des facteurs associés aux loisirs et à l’activité physique est très importante en AJI puisqu’elle peut permettre aux professionnels de la santé de développer des interventions significatives basées sur les activités préférées des enfants, améliorer l’observance au traitement et promouvoir des habitudes de vie saine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est connu qu’une équation différentielle linéaire, x^(k+1)Y' = A(x)Y, au voisinage d’un point singulier irrégulier non-résonant est uniquement déterminée (à isomorphisme analytique près) par : (1) sa forme normale formelle, (2) sa collection de matrices de Stokes. La définition des matrices de Stokes fait appel à un ordre sur les parties réelles des valeurs propres du système, ordre qui peut être perturbé par une rotation en x. Dans ce mémoire, nous avons établi le caractère intrinsèque de cette relation : nous avons donc établi comment la nouvelle collection de matrices de Stokes obtenue après une rotation en x qui change l’ordre des parties réelles des valeurs propres dépend de la collection initiale. Pour ce faire, nous donnons un chapitre de préliminaires généraux sur la forme normale des équations différentielles ordinaires puis un chapitre sur le phénomène de Stokes pour les équations différentielles linéaires. Le troisième chapitre contient nos résultats.