985 resultados para Android, Java, Asp.net, ASP.NET Web API 2, ASP.NET Identity 2.1, JWT
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La protection de l’environnement est un enjeu capital de la société contemporaine. Suite à la révolution industrielle, la contamination de l’environnement a pris divers chemins pour se retrouver dans notre eau, notre atmosphère et, de manière parfois moins évidente, dans nos sols. Considérant le nombre de sites contaminés répertoriés par le ministère du Développement durable, de l’Environnement et des Parcs, on peut s’interroger sur l’efficacité des dispositions prévues à la section IV.2.1 de la Loi sur la qualité de l’environnement qui prévoit des pouvoirs d’ordonnance de caractérisation et de réhabilitation pouvant viser de manière rétroactive non seulement le pollueur et celui ayant permis la contamination, mais également, dans certains cas, le gardien, à quelque titre que ce soit, du terrain. En 2003, le cadre réglementaire en matière d’ordonnances de décontamination a fait l’objet d’une réforme majeure, dont les grandes lignes sont rapportées dans la première partie de cette étude. Toutefois, l’application de ces mesures relève d’un pouvoir de nature discrétionnaire pour le ministre, cette discrétion faisant l’objet de développements dans la deuxième partie de notre mémoire. Le nombre d’ordonnances rendues par le ministre en matière de décontamination des sites est si peu élevé qu’on ne peut éviter de traiter, dans la dernière partie de notre étude, de l’éventuelle responsabilité de l’État en lien avec la contamination des sols, considérant les principes de développement durable et surtout, d’équité intergénérationnelle qui, selon nous, devraient se refléter dans l’application des pouvoirs d’ordonnance du ministre de l’Environnement.
Resumo:
Le présent mémoire a comme sujet l'analyse et la caractérisation de la pensée de Paul sur la parousie (la deuxième venue du Seigneur) et l'étude de l'interprétation de cette pensée dans la théologie contemporaine,telle que représentée par Rudolf Bultmann, tenant de la démythologisation, et les théologiens de la libération Ignacio Ellacuria et Jon Sobrino. Les éléments clés de la parousie sont décrits principalement en Matthieu 25,31-46, 1 Cor 15,20-28, 1 Thess 4,13-18, 2 Thess 2,1-12. D'après Paul, « Le Seigneur, au signal donné, à la voix de l'archange et au son de la trompette de Dieu, descendra du ciel ». La principale question du mémoire porte sur cette vision paulinienne: Est-ce que la deuxième venue du Seigneur d'après la description paulinienne est encore crédible pour l'homme contemporain ou est-ce qu'il s'agit d'un élément mythologique non essentiel à la foi chrétienne? Bultmann considère que la parousie est un mythe : à ce jour, la parousie ne s'est pas produite, et elle ne se produira jamais. Le kérygme est le seul élément que Bultmann considère comme valide. « The kerygma is the proclamation of the decisive act of God in Christ ». Par contraste, Ellacuria est d'avis que l'élément eschatologique est essentiel pour comprendre l'histoire, car cette dernière est orientèe vers la fin. De manière analogue, Sobrino présente le Royaume de Dieu comme étant un élément clé de l'eschatologie. La théologie de la libération présente également la parousie comme un élément à venir qui représente l'implantation intégrale du Royaume de Dieu et qui devrait se comprendre comme une perspective eschatologique au-delà de l'imagerie de la parousie.
Resumo:
Résumé: Les anti-infectieux sont parmi les médicaments les plus utilisés pendant la grossesse. Les indications pour l’utilisation de ces médicaments, telles que les infections bactériennes, figurent parmi les facteurs de risque les plus importants pour la prématurité et les enfants nés petits pour l'âge gestationnel («Small-for-gestational-age », SGA). Ces complications de la grossesse peuvent avoir des incidences sur la santé du nouveau né et sur son développement futur. Compte tenu des impacts sur la santé de la mère et de l’enfant, la prise en charge et le traitement efficace de ces infections sont impératifs. Cependant, l'utilisation des anti-infectieux, pour éviter des issues de grossesse défavorables, fait l’objet d’une controverse dans la littérature. Cette controverse est en partie liée à la qualité méthodologique discutable des études disponibles sur le sujet. Les quatre études présentées dans cette thèse ont donc pour objectif d’investiguer l’utilisation des anti-infectieux durant la grossesse ainsi que d’évaluer le risque de prématurité et de SGA après utilisation de ces médicaments en période gestationnelle. Une révision systématique de la littérature sur l’utilisation du métronidazole durant la grossesse est également présentée. Nous avons utilisé, comme source de données le Registre des Grossesses du Québec, une cohorte longitudinale conçue à partir du jumelage de trois bases de données administratives de la province du Québec (RAMQ, Med-Echo et ISQ). Le registre fournit des informations sur les prescriptions, les services pharmaceutiques et médicaux, ainsi que des donnés sur les soins d’hospitalisation de courte durée et démographiques. Les deux premières études présentées dans cette thèse ont eu pour objectif d’évaluer la prévalence, les tendances, les indications et les prédicteurs de l’utilisation des anti-infectieux dans une cohorte, extraite du registre, de 97 680 femmes enceintes. A l’aide d’un devis cas-témoins, les 2 dernières études ont mesuré l’association entre l’utilisation d’anti-infectieux durant les 2 derniers trimestres de grossesse et le risque de prématurité et de SGA, respectivement. Un cas de prématurité a été défini comme un accouchement survenu avant 37 semaines de gestation. Un cas de SGA a été défini comme l’accouchement d’un enfant dont le poids à la naissance se situe sous le 10ème percentile du poids normalisé à la naissance (compte tenu de l’âge gestationnel et du sexe du bébé). Les données ont été recueillies pour les agents systémiques oraux, ainsi que pour les classes et les agents individuels. Nos résultats ont montré que la prévalence de l’utilisation des anti-infectieux durant la grossesse était comparable à celle d’autres études déjà publiées (25%). Nous avons observé une augmentation de l’utilisation des agents plus anciens et ayant des profils d’innocuité connus. Les prédicteurs de l’usage en début de grossesse identifiés sont : avoir eu plus de deux différentes prescriptions (OR ajusté = 3,83, IC 95% : 3,3-4,3), avoir eu un diagnostic d’infection urinaire (OR= 1,50, IC 95% : 1,3-1,8) et un diagnostic d’infection respiratoire (OR= 1,40, IC 95% : 1,2-1,6). L’utilisation des macrolides a été associée à une diminution du risque de prématurité (OR =0,65, IC 95% : 0,50-0,85). En revanche, les femmes ayant été exposées au métronidazole ont vu leur risque augmenté de 80% (OR=1,81, IC 95% : 1,30-2,54). L’utilisation d’azithromycine a été associée à une diminution importante du risque chez les femmes ayant un diagnostic de rupture prématurée des membranes (OR=0,31, IC 95% : 0,10-0,93). Cependant, l'utilisation de sulfaméthoxazole-triméthoprime (SXT) a été significativement associée à une augmentation du risque de SGA (OR= 1,61, IC 95% : 1,16-2,23), tandis que celle des anti-infectieux urinaires a été associée à une diminution du risque (OR= 0,80, 95%CI : 0.65-0.97). Les conclusions de nos travaux suggèrent que l’utilisation des macrolides et des pénicillines diminuent le risque de prématurité et de SGA. Nous devons considérer l'utilisation de différents choix thérapeutiques tels que l’azithromycine, lors de la prise en charge des infections pouvant induire la prématurité et le SGA.
Resumo:
Nous avons effectué ce travail afin d’évaluer l’impact d’une utilisation accrue des antirétroviraux (ARV) sur l’émergence de la résistance dans le cadre d’une cohorte de sujets infectés par le VIH-1, enrôlés au Mali pour recevoir la thérapie antirétrovirale. La première partie de ce travail a évalué la résistance primaire auprès de 101 sujets naïfs aux ARV. Cette étude a démontré que la majorité des sujets (71,3%) étaient infectés par le sous-type CRF02_AG. La prévalence de la résistance primaire était de 9,9%. Ce chiffre dépasse largement la moyenne de 5,5% observée dans les pays en développement et le seuil des 5% fixé par l’OMS dans le cadre de la surveillance de la résistance. Les mutations associées aux analogues de la thymidine ou « Thymidine-associated Mutations » (TAMs): M41L, D67N, L210W, T215A/Y, K219E liées à la résistance aux inhibiteurs nucléosidiques de la transcriptase inverse (INTI) ainsi que les mutations K103N, V108I, V179E et Y181C impliquées dans la résistance aux inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) étaient majoritairement observées. Ces mutations sont compatibles avec les régimes de traitement de première ligne utilisés au Mali, composés de stavudine/lamivudine/nevirapine. Nous n’avons pas trouvé de mutations majeures aux inhibiteurs de protéase (IP), probablement du fait que cette classe d’ARV est rarement utilisée au Mali. Cependant plusieurs polymorphismes au niveau du gène de la protéase, particulièrement L10I et L10V ont été observés à une fréquence très élevée (18,80%). Compte tenu de ces premiers résultats, une suite logique de ce travail était de savoir comment des souches de sous-type CRF02_AG évolueraient sous la pression de sélection des ARV. Nous avons abordé ces questions dans une étude de cohorte de 132 sujets infectés majoritairement avec le sous-type CRF02_AG débutant une thérapie de première ligne. Nos résultats suggèrent que la présence de mutation de résistance primaire pourrait avoir un effet sur l’efficacité du traitement. Par exemple, la présence d’une seule mutation INNTI avant traitement comme K103N ou V179E était suffisante pour mener à l’échec au traitement (charge virale supérieure à 400 copies/ml). Par ailleurs, nous avons effectué des expériences in vitro pour mieux évaluer l’impact du polymorphisme L10I/V chez le sous-type CRF02_AG. Il faut savoir que le rôle de ce polymorphisme reste incertain chez le sous-type CRF02_AG, car aucune étude in vitro n’avait été réalisée auparavant. Nos résultats indiquent chez le sous-type sauvage CRF02_AGwt_10L une légère augmentation de la concentration inhibitrice 50% (IC50) pour le darunavir, le lopinavir et le nelfinavir comparativement au sous-type de référence B HXB2_10L avec respectivement un « Fold Change » (FC) de 1,2, 1,3 et 1,5. Cette augmentation est plus importante pour le lopinavir avec un FC (1,3) très proche de son seuil biologique (1,6). Comparativement au type sauvage CRF02_AGwt_10L, nos deux mutants CRF02_AGL10I et CRF02_AGL10V ont démontré une légère augmentation d’IC50 pour l’indinavir (avec respectivement un FC de 1,3 et 1,2) et une diminution pour le lopinavir (avec respectivement un FC de 0,78 et 0,75). Toutes ces observations suggèrent que la mutation en position 10 pourrait avoir un impact chez le sous-type CRF02_AG. Toutefois, la signification clinique de ces observations doit être déterminée. En conclusion, nos résultats supportent d’une part la nécessité de renforcer la surveillance de la résistance aux ARV et d’autre part, il fournit des informations nécessaires à l’amélioration des stratégies thérapeutiques afin de prévenir les échecs aux traitements chez les sous-types non B, particulièrement le CRF02_AG.
Resumo:
L’entérotoxine B staphylococcique (SEB) est une toxine entérique hautement résistante à la chaleur et est responsable de plus de 50 % des cas d’intoxication d’origine alimentaire par une entérotoxine. L’objectif principal de ce projet de maîtrise est de développer et valider une méthode basée sur des nouvelles stratégies analytiques permettant la détection et la quantification de SEB dans les matrices alimentaires. Une carte de peptides tryptiques a été produite et 3 peptides tryptiques spécifiques ont été sélectionnés pour servir de peptides témoins à partir des 9 fragments protéolytiques identifiés (couverture de 35 % de la séquence). L’anhydride acétique et la forme deutérée furent utilisés afin de synthétiser des peptides standards marqués avec un isotope léger et lourd. La combinaison de mélanges des deux isotopes à des concentrations molaires différentes fut utilisée afin d’établir la linéarité et les résultats ont démontré que les mesures faites par dilution isotopique combinée au CL-SM/SM respectaient les critères généralement reconnus d’épreuves biologiques avec des valeurs de pente près de 1, des valeurs de R2 supérieure à 0,98 et des coefficients de variation (CV%) inférieurs à 8 %. La précision et l’exactitude de la méthode ont été évaluées à l’aide d’échantillons d’homogénat de viande de poulet dans lesquels SEB a été introduite. SEB a été enrichie à 0,2, 1 et 2 pmol/g. Les résultats analytiques révèlent que la méthode procure une plage d’exactitude de 84,9 à 91,1 %. Dans l’ensemble, les résultats présentés dans ce mémoire démontrent que les méthodes protéomiques peuvent être utilisées efficacement pour détecter et quantifier SEB dans les matrices alimentaires. Mots clés : spectrométrie de masse; marquage isotopique; protéomique quantitative; entérotoxines
Resumo:
réalisé en cotutelle avec l'Université Claude Bernard Lyon 1
Resumo:
L’eugénol permet d’induire une anesthésie chirurgicale chez la grenouille africaine à griffes (Xenopus laevis) sans causer de lésions chez des grosses grenouilles (90-140g). Le premier objectif de la présente étude était de déterminer la durée de l’anesthésie et d’évaluer la dépression du système nerveux central ainsi que les changements de saturation en oxygène et de fréquence cardiaque chez des petites (7.5 ± 2.1 g) et moyennes (29.2 ± 7.4 g) grenouilles Xenopus laevis en fonction du temps d’exposition à un bain d’eugénol de 350 µL/L. Suite à une immersion de 5 ou 10 minutes, la réponse au test à l’acide acétique, au réflexe de retrait et au réflexe de retournement était absente pendant 1 heure (petites grenouilles) et 0,5 heure (moyennes) et l’anesthésie chirurgicale durait au maximum 15 et 30 minutes chez les petites et moyennes grenouilles respectivement. La saturation en oxygène n’était pas affectée de façon significative, mais la fréquence cardiaque était diminuée jusqu’à 1 heure post-immersion dans les deux groupes. Le deuxième objectif était de déterminer la toxicité de l’eugénol chez des grenouilles de taille moyenne après une ou trois administrations à une dose anesthésique, avec ou sans période de récupération d’une semaine. Histologiquement, il y avait de l’apoptose tubulaire rénale et des membranes hyalines pulmonaires après une administration, et de la nécrose hépatique et des hémorragies dans les tissus adipeux après trois administrations. Ces résultats suggèrent que le poids corporel est un paramètre important à considérer lors de l’anesthésie de grenouilles Xenopus laevis par immersion dans l’eugénol.
Resumo:
Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
Étude de cas / Case study
Resumo:
Étude de cas / Case study
Resumo:
PROBLÉMATIQUE: L’Organisation Mondiale de la Santé (OMS) considère les maladies cardiovasculaires (MCVs) comme l'hypertension, la maladie coronarienne (par exemple, infarctus du myocarde), l'insuffisance cardiaque ainsi que les accidents cérébrovasculaires, parmi les principales causes de mortalité dans le monde. Les MCVs sont des maladies multifactorielles caractérisées par des interactions complexes entre le génome et l'environnement et dont la prévalence augmente rapidement dans toutes les populations du globe, ce qui vient compliquer d'autant l'étude de leurs bases héréditaires. Nos études précédentes sur la population fondatrice des familles Canadiennes-françaises de la région du Saguenay-Lac-Saint-Jean (SLSJ) au Québec ont permis d’obtenir une carte des loci significativement liés à des déterminants qualitatifs et quantitatifs de l’hypertension et ses déterminants métaboliques [1, 2]. HYPOTHÈSE ET OBJECTIF: Puisque nos données préliminaires nous suggèrent que la mort prématurée consécutive aux MCVs possède des composantes génétique et environnementale, notre hypothèse de départ est que les maladies avec occurrences fatales et non fatales (OF et ONF, respectivement) ont des caractéristiques distinctes, surtout lorsqu’en lien avec le système CV. Pour réaliser ce projet, nos objectifs sont d’analyser les causes de morbidité/mortalité d’hypertendus avec ou sans obésité chez des familles de la région du SLSJ. Nous accomplirons ceci en interrogeant les registres des hôpitaux et de l'état civil de même que les données généalogiques de 1950 jusqu'à maintenant. Nous voulons décrire et étudier les OF pour les comparer aux NFO. RÉSULTATS: Nous avons identifié un total de 3,654 diagnostiques appartenant aux OF et ONF chez les 343 sujets étudiés. Pour les OF, nous avons trouvé que: (1) un grand total de 1,103 diagnostiques du système circulatoire ont affecté 299 sujets avec 555 occurrences et 247 premières occurrences; (2) 333 des sujets participants ont reçu 1,536 diagnostiques non-CV avec 195 occurrences et 107 premières occurrences; (3) 62 diagnostiques de toutes autres causes chez 62 des sujets participants avec 81 occurrences et 11 premières occurrences. Pour les ONF: (1) 156 diagnostiques du système circulatoire ont affecté 105 sujets; (2) 60 diagnostiques de causes non-CV chez 53 des sujets; (3) et 718 diagnostiques de toutes autres causes chez 252 des sujets. Pour les OF, 109 des 333 sujets affectés par les maladies non-CV et 58 des 62 par toutes autres maladies étaient atteints simultanément par des MCV. Nous avons décrit les caractéristiques des maladies avec occurrences fatales et non fatales. Les MCVs prédominaient dans les résultats des premières occurrences et occurrences totales tandis que les maladies non-CV étaient les plus élevées pour les diagnostiques. De plus, les OF CV ont affecté 67.1% de notre échantillon de population, incluant les sujets co-affectés par les maladies non-CV ou de toutes autres causes. En fait, nos sujets ont un risque trois fois plus élevé de développer des MCVs (p<0.0001; χ2=1,575.348), tandis qu’il diminue de moitié pour les maladies non-CV comparativement au reste de la population du SLSJ (p=0.0006; χ2=11.834). Enfin, le risque de développer des tumeurs malignes est diminué de moitié dans notre échantillon comparativement à l’incidence régionale. CONCLUSION: Cette étude a apporté une nouvelle perspective sur les OF et ONF chez nos sujets de la région SLSJ du Québec après 11 ans. Quand on observe ces résultats en conjonction avec les MCVs, ce risque double.
Resumo:
Cette étude porte sur une intervention de groupe basée sur la thérapie cognitivo-comportementale pour l’hyperphagie boulimique (HB), dont les effets potentiels sur la qualité de vie reliée au poids, la fréquence et la sévérité des crises de boulimie, les symptômes dépressifs, l’image corporelle et le poids corporel ont été mesurés, et le degré d’acceptation par les participantes a été documenté. Ainsi, 11 femmes avec un surplus de poids et répondant aux critères diagnostiques de l’HB ont été recrutées du printemps 2012 à l’hiver 2013, dans la région de Montréal. Le programme comportant huit séances hebdomadaires était dispensé par une nutritionniste et une psychothérapeute. La qualité de vie reliée au poids (Impact of Weight on Quality of Life), la fréquence des crises de boulimie (rappel des sept derniers jours), la sévérité des crises de boulimie (Binge Eating Scale), les symptômes dépressifs (Inventaire de Beck pour la dépression), l’insatisfaction corporelle (Body Shape Questionnaire) et le poids corporel ont été mesurés avant et à la fin de l’intervention. Puis, un questionnaire pour mesurer l’acceptation par les participantes était soumis au terme du programme. Le taux de participation aux séances était aussi colligé. Les résultats montrent que notre programme a permis une amélioration significative du score global de la qualité de vie reliée au poids de 8,4 ± 13,3, ainsi qu’en termes d’estime de soi et de travail. Aussi, une diminution significative de la fréquence des crises de boulimie de 2,1 ± 2,1 jours, de la sévérité des crises de boulimie dont le score a diminué de 10,9 ± 7,7, des symptômes dépressifs dont le score a diminué de 8,3 ± 5,7 et de l’insatisfaction corporelle dont le score a diminué de 32,8 ± 17,1, ont été observées. Toutefois, il n’y a pas eu de perte de poids au terme de l’intervention. Puis, le programme a été bien accepté par les participantes tel que démontré par le taux de participation aux séances de 93,8 % et la satisfaction mesurée par l’appréciation des divers éléments du programme de 4,6 sur 5 et la pertinence de ceux-ci de 4,8 sur 5. Ces données suggèrent que l’intervention de groupe semble être prometteuse pour améliorer les symptômes et conséquences de l’HB, à l’exception du poids.
Resumo:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.