15 resultados para Ajustement des prix

em Université de Montréal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire présente une recherche détaillée et une analyse des étoiles naines blanches hybrides chimiquement stratifiées dans le Sloan Digital Sky Survey (SDSS). Une seule étoile stratifiée, PG 1305-017, était connue avant notre recherche. L'objectif principal est de confirmer l'existence de plusieurs nouvelles étoiles stratifiées. Pour ce faire, il a fallu dans un premier temps développer une nouvelle génération de modèles d'atmosphère à partir de ceux de Bergeron et al. (1991) et Tremblay & Bergeron (2009). Nous y avons ajouté l'opacité de toutes les raies d'hélium et les calculs nécessaires pour tenir compte de la stratification chimique de l'atmosphère, où une mince quantité d’hydrogène flotte en équilibre diffusif au-dessus d’une enveloppe massive d’hélium. En parallèle, nous avons aussi calculé des modèles standards, chimiquement homogènes. Ensuite, nous avons sélectionné des naines blanches chaudes (Teff > 30,000 K) de type spectral hybride (traces d'hélium et d'hydrogène) parmi les ~38,000 naines blanches répertoriées dans le SDSS. Un total de 52 spectres d'étoile a été retenu dans notre échantillon final. La technique spectroscopique, c'est-à-dire l'ajustement des raies spectrales des modèles sur un spectre observé, a été appliquée à toutes les étoiles de notre échantillon. Nous avons ainsi mesuré la température effective, la gravité de surface et la composition chimique de l'atmosphère de ces étoiles. Par l'ajustement simultané de modèles stratifiés et homogènes, nous avons aussi pu déterminer si les étoiles étaient stratifiées ou non. Nous identifions ainsi 14 naines blanches stratifiées. Nous tirons de ces résultats plusieurs conclusions sur les processus physiques expliquant la présence d'hélium dans l'atmosphère.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lors de l’attribution du prix Nobel de chimie aux docteurs Robert Leftkowitz et Brian Kobika pour leurs travaux essentiels sur les récepteurs couplés à des protéines G (RCPGs), Sven Lindin, membre du comité Nobel, a affirmé que « jusqu'à la moitié » des médicaments « reposent sur une action ciblant les RCPG ». En raison de leurs rôles importants, leurs mécanismes d'activation et l’action de leurs ligands, les RCPG demeurent les cibles potentielles de la majorité des recherches pour le développement de nouveaux médicaments et de leurs applications cliniques. Dans cette optique, nous avons concentré nos recherches à travers cette thèse pour élucider les rôles, les mécanismes d’action et les effets des ligands de trois RCPG : GPR55; GPR91 et GPR99 au cours du développement des axones des cellules ganglionnaires de la rétine (CGRs). Les résultats de nos études confirment l’expression des récepteurs lors du développement embryonnaire, postnatal et adulte des CGRs ainsi qu’au cours de l’établissement de la voie rétinothalamique. In vitro, la modulation pharmacologique et génétique de l’activité de ces RCPGs réorganise la morphologie du cône de croissance des CGRs, celle des neurones corticaux et elle modifie la croissance axonale globale. De plus, les effets de la stimulation avec des ligands des ces trois RCPGs sur le guidage axonal varient d’aucun effet (GPR91 et GPR99) à la répulsion ou l’attraction (GPR55). La voie de signalisation MAPK-ERK1/2 joue un rôle essentiel dans la médiation des effets des ligands de ces récepteurs avec une implication de la voie de RhoA à hautes concentrations pour l’agoniste endogène de GPR55. In vivo, cette recherche démontre également l’implication de GPR55 dans les processus de sélection des cibles thalamiques et de raffinement au cours du développement du système nerveux visuel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’intégration des technologies de l’information et de la communication (TIC) en contexte éducatif représente un moyen concret d’action et de réflexion en sciences de l’éducation. Les scientifiques et les acteurs de terrain se questionnent sur l’intégration des technologies et sur les moyens à mettre en place afin de réussir ce processus parfois complexe. De fait, la pénétration des outils technologiques dans les établissements scolaires a été exponentielle ces dernières années. Il est aujourd’hui nécessaire de comprendre selon quelles perspectives ces outils s’intègrent en salle de classe. Un exemple marquant est celui de la tablette tactile, récemment intégrée massivement dans les écoles d’Amérique du Nord et d’Europe. Cet outil, relativement récent dans la sphère scolaire, demande une réflexion précise vis-à-vis des pratiques pédagogiques des enseignants et des processus d’intégration inhérents. Afin de répondre à ces questionnements, nous avons élaboré une recherche en trois temps. Dans un premier temps, nous avons dressé un portrait exhaustif des pratiques pédagogiques des enseignants utilisant quotidiennement la tablette tactile en salle de classe. Ce portrait nous permet d’esquisser une synthèse des usages et réalités pédagogiques qui entourent cet outil. Dans un deuxième temps, nous avons répertorié, analysé et classifié les modèles d’intégration des TIC présents dans la littérature. L’analyse de ces modèles nous a permis d’en extraire les forces et les lacunes intrinsèques. Ensuite, nous avons créé un modèle synthèse rassemblant les réflexions issues de ces analyses. En parallèle, nous avons créé une typologie permettant d’identifier et de classifier ces modèles. Dans un troisième temps, nous sommes partis des pratiques pédagogiques des enseignants et du modèle général d’intégration des TIC que nous avons conçu afin de comprendre quel était le processus d’intégration de la tablette en salle de classe. Les résultats obtenus mettent en évidence que l’utilisation de la tablette induit des usages pédagogiques novateurs qui facilitent l’enseignement et qui favorisent l’apprentissage des élèves. Cependant, nous constatons que la tablette n’est pas utilisée à son plein potentiel et que certains usages devraient être envisagés selon une perspective plus efficiente et adaptée. En ce qui concerne les processus d’intégration, nous avons identifié plusieurs éléments indispensables: ces processus doivent être itératifs et constructifs, des facteurs internes et externes doivent être considérés et des niveaux d’intégration doivent être identifiés. Le modèle ainsi conçu spécifie le modèle à privilégier et les aboutissants à considérer. À la suite de cette étape, nous avons conçu un modèle d’intégration spécifiquement dédié à la tablette. Celui-ci met en évidence, au-delà des caractéristiques définies dans le modèle général, une nécessaire formation, une implication des acteurs, un ajustement constant des pratiques pédagogiques et une itération indispensable. À la suite de ces considérations, nous constatons que le processus d’appropriation de la tablette est en cours de construction et que les nouvelles implantations, comme les existantes, doivent procéder à une analyse minutieuse des tenants et aboutissants des pratiques médiées par l’intégration de l’outil. En fin de document, une synthèse des résultats et des recommandations est proposée afin de favoriser l’intégration de la tablette tactile - et des TIC en général – dans la salle de classe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Jusqu’à son suicide dans la nuit du 12 au 13 mars 1990, à l’âge de 86 ans, Bruno Bettelheim a marqué l’histoire de la psychologie. Dix-sept ouvrages, dont quatre écrits en collaboration, constituent, pour l’essentiel, sa contribution originale au traitement de l’autisme infantile : une thérapie de milieu, entièrement fondée sur les travaux de Freud. Certains n’hésitent pas, d’ailleurs, à le considérer comme un pionnier de l’histoire de la psychanalyse. Après sa mort, cependant, les langues se délient. D’anciens pensionnaires de l’école orthogénique de Chicago racontent que Bettelheim les battait, témoignages corroborés par d’anciens membres du personnel. Des proches collaborateurs ont même affirmé que Bettelheim mentait tout le temps, mensonges qui ont contribué à créer « le mythe Bettelheim », bien décrit dans l’ouvrage de Pollak (1997/2003), Bruno Bettelheim ou la fabrication d’un mythe. L’objectif de ce texte n’est pas d’aborder l’ensemble des reproches adressés à Bettelheim et à son oeuvre, mais d’examiner les failles de son fameux ouvrage Psychanalyse des contes de fées (Bettelheim, 1976). Salué par deux prix en 1977 (National Book Critics Circle Award et National Book Award), Psychanalyse des contes de fées reste, sans conteste, le plus grand succès populaire de tous ses ouvrages, tant aux États-Unis d’Amérique que dans les pays francophones. En 1995, la New York Public Library plaçait l’ouvrage parmi les 159 « livres du siècle », en dépit des quelques critiques dévastatrices parues dès sa sortie (Arthur, 1978 ; Blos, 1978 ; Heisig, 1977 ; Lurie, 1976 ; Zipes, 1979), dont une accusation de plagiat, laquelle accusation réapparaîtra après sa mort (Dundes, 1991b ; Pollak, 1997/2003). Nous présenterons, d’abord, le point de vue de Bettelheim, quant aux bienfaits, pour les enfants, de s’entendre raconter, par un adulte, les contes de fées. Nous verrons alors, à notre grande surprise, que la valeur qu’il leur accorde, en utilisant une grille psychanalytique, est non seulement largement exagérée, mais contraire aux données empiriques et historiques. Le recours de Bettelheim à la notion du complexe d’OEdipe, largement commentée dans son ouvrage, servira d’exemple. Nous discuterons brièvement, ensuite, du silence de Bettelheim sur les auteurs qui ont écrit sur le sujet et de l’accusation de plagiat portée contre lui.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La néphro-urétérectomie radicale (NUR) représente le traitement primaire pour les patients atteints d’une tumeur des voies excrétrices supérieures (TVES) non métastatique. Une approche ouverte ou laparoscopique peut être considérée. Malgré la présence de plusieurs études comparant les résultats périopératoires et oncologiques entre ces deux approches, aucunes études se basent sur une cohorte populationnelle. Objectif : Notre but est d’évaluer la morbidité péri-opératoire entre la NUR ouverte et laparoscopique en utilisant une cohorte populationnelle. Méthode : Nous avons utilisé la base de donnée Nationwide Inpatient Sample (NIS) pour identifier tous les patients atteints d’une TVES non métastatique, traités par NUR ouverte ou laparoscopique, entre 1998 et 2009. Au total, 7401 (90,8%) et 754 (9,2%) patients ont subi une NUR ouverte et laparoscopique, respectivement. Dans le but de contrôler les différences inhérentes entre les deux groupes, nous avons utilisé une analyse par appariement sur les scores de propension. Ainsi, 3016 (80%) patients avec NUR ouverte étaient appariés à 754 (20%) patients avec NUR laparoscopique. Intervention : Tous les patients ont subi une NUR. Mesures : Les taux de complications intra-opératoires et post-opératoires, de transfusions sanguines, d’hospitalisation prolongée et de mortalité intrahospitalière ont été mesurés. Des analyses de régression logistique on été utilisées pour notre cohorte, après appariement sur les scores de propension. Résultats et Limitations : Pour les patients traités par approche ouverte vs. laparoscopique, les taux suivants furent calculés : transfusions sanguines : 15 vs. 10% (p<0,001); complications intra-opératoires : 4,7 vs. 2,1% (p=0,002); complications post-opératoires : 17 vs. 15% (p=0,24); durée d’hospitalisation prolongée (≥ 5 jours) : 47 vs. 28% (p<0,001); mortalité intra-hospitalière 1,3 vs. 0,7% (p=0,12). Sur les analyses par régression logistique, les patients ayant été traités par NUR laparoscopique avaient moins de chance de recevoir une transfusion sanguine (odds ratio [OR]: 0,6, p<0,001), de subir une complication intra-opératoire (OR: 0,4, p=0,002), et d’avoir une durée prolongée d’hospitalisation (OR: 0,4, p<0,001). Globalement les taux de complications postopératoires étaient équivalents. Toutefois, l’approche laparoscopique était associée à moins de complications pulmonaires (OR: 0,4, p=0,007). Cette étude est limitée par sa nature rétrospective. Conclusion: Après ajustement de potentiels biais de sélection, la NUR par approche laparoscopique est associée à moins de complications intraopératoires et péri-opératoires comparée à la NUR par approche ouverte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte. Depuis quelques années, plusieurs études se sont intéressées aux effets protecteurs des repas en famille sur divers aspects du développement des enfants et des adolescents. Objectif. Identifier les associations prospectives entre l'environnement des repas en famille à 6 ans et le développement bio-psycho-social à 10 ans. Méthode. Les participants sont 1 085 filles et 1 138 garçons faisant partie de l'Étude Longitudinale du Développement des Enfants du Québec (ÉLDEQ), qui a sélectionné un échantillon aléatoire et stratifié en utilisant le registre des naissances du Québec. Dans ce devis prospectif-longitudinal, les parents ont fourni une mesure sur l'environnement de leurs repas en famille à l'âge de 6 ans. Quatre années plus tard, les parents ont également fourni des mesures sur le niveau de condition physique de leur enfant ainsi que sa fréquence de consommation de boissons gazeuses; les enseignants ont mesuré la réussite en lecture et en mathématiques; les enfants ont auto-rapporté leurs niveaux d’agressivité physique globale, d’opposition, du trouble du comportement non agressif et d’agressivité réactive. Des analyses de régressions multiples ont été réalisées. Résultats. Un environnement plus sain lors des repas en famille à 6 ans a prédit les bénéfices suivants à 10 ans : une augmentation de la condition physique (β = 0,24; 95 % intervalle de confiance [IC], 0,12 à 0,36) ainsi qu'une diminution de la consommation de boissons gazeuses (β = -0,43; 95 % IC, -0,62 à -0,23), de l'agressivité physique globale (β = -0,38; 95 % IC, -0,58 à -0,18), de l'opposition (β = -0,72; 95 % IC, -1 à -0,4), du trouble du comportement non agressif (β = -0,33; 95 % IC, -0,50 à -0,17) et de l'agressivité réactive (β = -0,70; 95 % IC, -0,98 à -0,42). Contrairement à nos attentes, l'environnement des repas en famille n'était pas significativement relié au rendement scolaire. Conclusion. Les repas familiaux ont une forte influence à long terme sur le développement de l'enfant, par rapport à sa santé physique et à son ajustement social. Par conséquent, ils pourraient nourrir une campagne informative intéressante qui porterait sur la promotion de la santé mentale et physique des jeunes à travers ce rituel social.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en psychologie (D. Psy,), option clinique