992 resultados para Crittografia, Data Encryption Standard, DES, Java, Logica, SAT solver, CNF, Crittoanalisi Logica


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Codirecteur de recherche: Dr Sylvain Meloche

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des recherches, autant chez l’homme que chez l’animal, proposent qu’il existerait, au sein des réseaux cérébraux, une organisation anatomique parallèle de circuits qui coordonne l’activité des structures qui participent à la planification et à l’exécution d’une action. Dans cette foulée, un modèle émerge qui attribue au cortex préfrontal (CPF) latéral une spécificité anatomo-fonctionnelle basée sur les niveaux de traitement en mémoire de travail (MT). Il s’agit du modèle « niveaux de traitement-dépendant », qui accorde un rôle important au CPF latéral dans l’acquisition et la représentation de règles guidant nos comportements. Des études en neuroimagerie fonctionnelle, utilisant le Wisconsin Card Sorting Task (WCST) ont permis de corroborer ce modèle et de dissocier trois niveaux de traitement en MT non seulement au sein du CPF latéral mais encore aux structures sous- corticales, les ganglions de la base (GB). Ces études suggèrent que certains noyaux des GB seraient topographiquement organisés avec le CPF latéral et contriburaient, sous certaines conditions, à des processus cognitifs et moteurs semblables à leur homologue cortical. Le but de notre étude est d'explorer la généralisation de la contribution des GB et du CPF au modèle niveaux de traitement-dépendant afin de voir si ce dernier est indépendant de la nature des stimuli en mémoire de travail. À cet effet, nous avons modifié le WCST en l’appliquant à un autre domaine, celui du langage. Nous avons remplacé les pictogrammes par des mots et modifié les règles formes, couleurs, nombres, par des règles sémantiques et phonologiques. L’analyse des résultats a démontré que différentes parties des GB de concert avec différentes régions du CPF se différencient quant aux niveaux de traitement en MT et ce, indépendamment de la nature des stimuli. Une deuxième analyse a permis d’évaluer les patrons d’activations liés aux conditions sémantiques et phonologiques. Ces résultats ont mis en évidence que les réseaux préfrontaux semblent liés aux processus exécutifs nécessaires à la réalisation de la tâche, indépendamment de la condition tandis que les aires associatives se dissocient davantage et contiennent des réseaux propres à la sémantique et à la phonologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’immunosuppression a permis d’améliorer l’incidence du rejet aigu sans toutefois améliorer significativement le rejet chronique. Celui-ci est caractérisé par une vasculopathie du greffon (VG) similaire à une forme accélérée d’athérosclérose native accompagnée de fibrose. La pathophysiologie de la VG découle de l’hypothèse de réponse à l’insulte proposée par Russell Ross en 1977. Selon son postulat, l’endothélium stressé par des facteurs immunologiques et non immunologiques initie l’apoptose endothéliale suivi d’une réponse de réparation vasculaire via un épaississement myo-intimal aux sites d’insultes. Toutefois, lorsque les stress endothéliaux initiaux demeurent soutenus, l’apoptose endothéliale et la réponse de réparation perpétuent. Compte tenu que l’inhibition de l’apoptose endothéliale bloque le développement de la VG in vivo, notre hypothèse de travail reposait sur les répercussions paracrines de l’apoptose endothéliale sur les types cellulaires participant au remodelage vasculaire. Nous avons généré un système expérimental in vitro afin d’induire l’apoptose endothéliale en absence significative de nécrose cellulaire. À l’aide d’une approche protéomique multidimensionnelle et comparative, nous avons démontré que les cellules endothéliales apoptotiques exportent spécifiquement 27 signaux post mortem (SPM). Nous avons démontré que certains de ces SPM ont des propriétés anti-apoptotiques (TCTP et EGF), d’autre fibrogénique (CTGF), récapitulant ainsi certains phénotypes cellulaires associés au développement de la VG. Parmi les médiateurs identifiés, 16 n’avaient pas de signal de sécrétion, incluant TCTP, suggérant que des mécanismes de sécrétion non conventionnels soient favorisés durant l’apoptose. Nous avons démontré que la caspase-3 effectrice régule la voie de sécrétion non classique exosomiale associée à l’export extracellulaire de nanovésicules TCTP+VE, anti-apoptotiques et biochimiquement distinctes des corps apoptotiques. Finalement, l’ensemble des données protéomiques ont permis d’émettre l’hypothèse qu’en réponse à un stress apoptotique, la cellule exporte différents médiateurs (solubles et vésiculaires) de manière non conventionnelle nécessitant la fusion d’organelles de la voie endocytaire et autophagique avec la membrane plasmique. Ce mécanisme serait régulé durant la phase effectrice de l’apoptose permettant ainsi d’initier une réponse de réparation extracellulaire seulement lorsque le destin cellulaire a atteint un point de non retour. Ainsi, le testament protéique et nanovésiculaire légué durant l’apoptose endothéliale pourrait servir simultanément de biomarqueur de la VG et de cible thérapeutique afin de diminuer le remodelage vasculaire pathologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La consommation des jeunes placés dans les centres jeunesse du Québec est bien documentée, mais leurs motivations à consommer, à changer ou à parler de leur consommation avec un intervenant demeurent inconnues. Par ailleurs, très peu de chercheurs se sont intéressés aux particularités du processus de changement à l’adolescence et encore moins à ce processus dans un contexte d’autorité. Pour ces raisons, la présente recherche donne la parole aux jeunes afin de mieux comprendre leur usage de substances psychoactives, leur désir éventuel de réduire ou d’arrêter leur consommation, leur ouverture à réfléchir ou à discuter de leur consommation et leur ouverture envers les interventions disponibles. Basés sur une collecte de données qualitatives composée de 27 entrevues avec les jeunes hébergés au Centre jeunesse de Montréal et de huit mois d’observations participantes dans les unités de vie, les résultats indiquent que la majorité des adolescents interviewés disent consommer diverses substances psychoactives pour lesquelles ils identifient différentes sources de motivation, autant à consommer qu’à changer leur consommation. De plus, ces sources de motivation identifiées sont plus ou moins associées au contexte d’autorité dans lequel les jeunes sont placés. Ainsi, si certains jeunes estiment que la possibilité de changement est facilitée par l’environnement contrôlé du Centre jeunesse, pour d’autres, les contraintes de ce milieu de vie ne semblent pas avoir d’impact sur leur motivation. Par ailleurs, les jeunes démontrent différents degrés d’ouverture envers les interventions disponibles et envers les éducateurs qui les côtoient. En général, les approches compréhensives et moins autoritaires semblent encourager un certain investissement de la relation entre jeunes et éducateurs et peuvent potentiellement faciliter l’établissement d’une relation d’aide et le changement de comportement. En utilisant le cadre théorique proposé, une combinaison du Modèle transthéortique du changement et de la Théorie de l’auto-détermination, il apparaît limité de considérer les jeunes en difficulté comme étant motivés ou non motivés à changer leur consommation. Les analyses démontrent que les perceptions de la nécessité ou des possibilités d’amorcer un processus de changement varient beaucoup d’un jeune à l’autre. Ainsi, l’approche choisie pour intervenir auprès des jeunes en difficulté devrait prendre en considération les nuances et la dynamique des motivations afin de mieux adapter les services offerts et de mieux comprendre les raisons associées au succès et à l’échec de certaines interventions et intervenants vis-à-vis de certains adolescents. En outre, afin de favoriser une perception positive du « placement » et pour que les jeunes le voient comme une « opportunité de changement », il apparaît important d’examiner la fréquence et l’intensité des interventions contraignantes appliquées dans les centres de réadaptation. Finalement, il importe de mentionner que les conclusions de cette étude exploratoire ne permettent d’établir des relations causales entre l’approche choisie par l’intervenant, la motivation à changer et l’ouverture des jeunes. Cependant, les données obtenues permettent d’analyser en profondeur les représentations que les jeunes ont des relations entre ces trois éléments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude cherche à clarifier les trajectoires de l’intégration des immigrants iraniens travaillant comme chauffeurs de taxi à Montréal. En effet, les conclusions de certaines études portant sur l’amélioration de l’insertion professionnelle des immigrants à moyen et à long terme étaient en opposition avec l’état actuel d’immigrants qualifiés travaillant toujours dans l’industrie du taxi après cinq, dix, quinze ans ou même plus après leur arrivée, bien que plusieurs avaient déjà une formation universitaire avant leur arrivé au Canada. Effectuée dans le cadre des études sur l’intégration des immigrants en général et en particulier au Canada et au Québec, cette recherche fait ressortir des résultats plus larges que les expériences de ce groupe après son arrivée dans le pays d’accueil en incluant les attentes et les motifs avant le départ. L’utilisation d’une démarche plutôt qualitative à partir des expériences et des trajectoires d’environ une quarantaine de chauffeurs de taxi travaillant dans une société de taxi montréalaise dont la majorité des travailleurs sont iraniens a permis de dépasser les difficultés liées à l’étude de ce groupe ainsi que d’en approfondir la connaissance. Cette étude se divise en deux parties. La première familiarise le lecteur avec l’histoire de l’immigration et celle des Iraniens au Canada ainsi qu’avec le cadre conceptuel et l’approche méthodologique de cette recherche. La deuxième partie, présentant les résultats, révèle le fait que plusieurs dans ce groupe d’immigrants n’ont pas eu accès aux droits de scolarité réduits offerts aux résidents québécois avant la régularisation de leur demande d’asile, ce qui a eu pour résultat de freiner leur grand désir de poursuivre des études au Canada. Ce blocage les a confinés dans des emplois de bas niveaux. Les cours peu avancés de français offerts aux immigrants n’ont pas pu les préparer à accéder aux bons emplois. Également, ce groupe a rejeté l’aide des agents d’emploi à cause des bas niveaux d’emplois que ceux-ci offraient. Alors que les périodes de chômage ont pu encourager certains à poursuivre leurs études, la discrimination après le 11 septembre 2001 a barré leur accès aux emplois qualifiés. La communauté iranienne n’a pas contribué à l’accès de ses membres aux emplois qualifiés à cause de son émergence récente au Canada. Ainsi, pour certains, le partenariat avec des compatriotes qu’ils connaissaient à peine et non experts dans la création d’entreprises, qui de plus ne se préoccupaient pas des exigences du métier, a abouti à leur fermeture. La comparaison entre les emplois déjà occupés et les avantages matériels et non matériels du taxi a mené ce groupe à recourir à ce métier. Pourtant, ses désavantages ont causé le départ non réfléchi de certains du Québec, mais ils sont revenus par la suite. Les traits culturels de ce groupe dans une société ethnique de taxi bien réglementée ont permis d’améliorer le fonctionnement de cette société. Enfin, malgré le désir de bon nombre de ces immigrants de changer d’emploi, l’analyse suggère que la probabilité reste, pour la majorité, peu élevée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte - La variation interindividuelle de la réponse aux corticostéroïdes (CS) est un problème important chez les patients atteints de maladies inflammatoires d’intestin. Ce problème est bien plus accentué chez les enfants avec la prévalence de la corticodépendance extrêmement (~40 %) élevée. La maladie réfractaire au CS a des répercussions sur le développement et le bien-être physique et psychologique des patients et impose des coûts médicaux élevés, particulièrement avec la maladie active comparativement à la maladie en rémission, le coût étant 2-3 fois plus élevé en ambulatoire et 20 fois plus élevé en hôpital. Il est ainsi primordial de déterminer les marqueurs prédictifs de la réponse aux CS. Les efforts précédents de découvrir les marqueurs cliniques et démographiques ont été équivoques, ce qui souligne davantage le besoin de marqueurs moléculaires. L'action des CS se base sur des processus complexes déterminés génétiquement. Deux gènes, le ABCB1, appartenant à la famille des transporteurs transmembraneaux, et le NR3C1, encodant le récepteur glucocorticoïde, sont des éléments importants des voies métaboliques. Nous avons postulé que les variations dans ces gènes ont un rôle dans la variabilité observée de la réponse aux CS et pourraient servir en tant que les marqueurs prédictifs. Objectifs - Nous avons visé à: (1) examiner le fardeau de la maladie réfractaire aux CS chez les enfants avec la maladie de Crohn (MC) et le rôle des caractéristiques cliniques et démographiques potentiellement liés à la réponse; (2) étudier l'association entre les variantes d'ADN de gène ABCB1 et la réponse aux CS; (3) étudier les associations entre les variantes d'ADN de gène NR3C1 et la réponse aux CS. Méthodes - Afin d’atteindre ces objectifs, nous avons mené une étude de cohorte des patients recrutés dans deux cliniques pédiatriques tertiaires de gastroentérologie à l’Ottawa (CHEO) et à Montréal (HSJ). Les patients avec la MC ont été diagnostiqués avant l'âge de 18 ans selon les critères standard radiologiques, endoscopiques et histopathologiques. La corticorésistance et la corticodépendance ont été définies en adaptant les critères reconnus. L’ADN, acquise soit du sang ou de la salive, était génotypée pour des variations à travers de gènes ABCB1 et NR3C1 sélectionnées à l’aide de la méthodologie de tag-SNP. La fréquence de la corticorésistance et la corticodépendance a été estimée assumant une distribution binomiale. Les associations entre les variables cliniques/démographiques et la réponse aux CS ont été examinées en utilisant la régression logistique en ajustant pour des variables potentielles de confusion. Les associations entre variantes génétiques de ABCB1 et NR3C1 et la réponse aux CS ont été examinées en utilisant la régression logistique assumant différents modèles de la transmission. Les associations multimarqueurs ont été examinées en utilisant l'analyse de haplotypes. Les variantes nongénotypées ont été imputées en utilisant les données de HAPMAP et les associations avec SNPs imputés ont été examinées en utilisant des méthodes standard. Résultats - Parmi 645 patients avec la MC, 364 (56.2%) ont reçu CS. La majorité de patients étaient des hommes (54.9 %); présentaient la maladie de l’iléocôlon (51.7%) ou la maladie inflammatoire (84.6%) au diagnostic et étaient les Caucasiens (95.6 %). Huit pourcents de patients étaient corticorésistants et 40.9% - corticodépendants. Le plus bas âge au diagnostic (OR=1.34, 95% CI: 1.03-3.01, p=0.040), la maladie cœxistante de la région digestive supérieure (OR=1.35, 95% CI: 95% CI: 1.06-3.07, p=0.031) et l’usage simultané des immunomodulateurs (OR=0.35, 95% CI: 0.16-0.75, p=0.007) ont été associés avec la corticodépendance. Un total de 27 marqueurs génotypés à travers de ABCB1 (n=14) et NR3C1 (n=13) ont été en l'Équilibre de Hardy-Weinberg, à l’exception d’un dans le gène NR3C1 (rs258751, exclu). Dans ABCB1, l'allèle rare de rs2032583 (OR=0.56, 95% CI: 0.34-0.95, p=0.029) et génotype hétérozygote (OR=0.52, 95% CI: 0.28-0.95 p=0.035) ont été négativement associes avec la dépendance de CS. Un haplotype à 3 marqueurs, comprenant le SNP fonctionnel rs1045642 a été associé avec la dépendance de CS (p empirique=0.004). 24 SNPs imputés introniques et six haplotypes ont été significativement associés avec la dépendance de CS. Aucune de ces associations n'a cependant maintenu la signification après des corrections pour des comparaisons multiples. Dans NR3C1, trois SNPs: rs10482682 (OR=1.43, 95% CI: 0.99-2.08, p=0.047), rs6196 (OR=0.55, 95% CI: 0.31-0.95, p=0.024), et rs2963155 (OR=0.64, 95% CI: 0.42-0.98, p=0.039), ont été associés sous un modèle additif, tandis que rs4912911 (OR=0.37, 95% CI: 0.13-1.00, p=0.03) et rs2963156 (OR=0.32, 95% CI: 0.07-1.12, p=0.047) - sous un modèle récessif. Deux haplotypes incluant ces 5 SNPs (AAACA et GGGCG) ont été significativement (p=0.006 et 0.01 empiriques) associés avec la corticodépendance. 19 SNPs imputés ont été associés avec la dépendance de CS. Deux haplotypes multimarqueurs (p=0.001), incluant les SNPs génotypés et imputés, ont été associés avec la dépendance de CS. Conclusion - Nos études suggèrent que le fardeau de la corticodépendance est élevé parmi les enfants avec le CD. Les enfants plus jeunes au diagnostic et ceux avec la maladie coexistante de la région supérieure ainsi que ceux avec des variations dans les gènes ABCB1 et NR3C1 étaient plus susceptibles de devenir corticodépendants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche se penche sur l’impact des facteurs de contexte et des facteurs individuels sur les conditions socioéconomiques des résidants des collectivités des Premières Nations du Québec et des résidants des communautés situées à proximité. Des régressions logistiques sur les données censitaires de 2001 ont été réalisées afin de répondre aux questions d’étude. Quatre dimensions, inspirées de l’indice de bien-être (IBC), ont été étudiées : l’activité, le logement, le revenu et la scolarité. Les résultats de recherche montrent que les deux types de facteurs contribuent à l’explication des inégalités sociales. Plus spécifiquement, les inégalités scolaires apparaissent principalement déterminées par les facteurs de contexte bien que les facteurs individuels, tel que l’âge et le genre, soient aussi déterminants. Ces dernières surviennent en amont des inégalités d’emploi et de revenu et expliquent celles-ci. De plus, les inégalités relatives au logement sont expliquées par l’emplacement spatial et le type de communauté de résidence. Par ailleurs, l’ethnicité des répondants ne joue pas un rôle de premier plan dans l’explication des disparités observées, une fois les autres caractéristiques contrôlées, ce qui ne signifie pas qu’il n’existe pas d’inégalités entre Amérindien et non-Amérindien. En fait, des chances différenciées persistent lorsque les autres caractéristiques sont contrôlées. Ainsi, les résultats mettent en évidence l’utilité de déplacer le point focal de la recherche quantitative sur les conditions autochtones du principal fait d’être Amérindien ou non vers un éventail plus large de déterminants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre contexte pratique — nous enseignons à des élèves doués de cinquième année suivant le programme international — a grandement influencé la présente recherche. En effet, le Programme primaire international (Organisation du Baccalauréat International, 2007) propose un enseignement par thèmes transdisciplinaires, dont un s’intitulant Où nous nous situons dans l’espace et le temps. Aussi, nos élèves sont tenus de suivre le Programme de formation de l’école québécoise (MÉLS Ministère de l'Éducation du Loisir et du Sport, 2001) avec le développement, notamment, de la compétence Résoudre une situation-problème et l’introduction d’une nouveauté : les repères culturels. Après une revue de la littérature, l’histoire des mathématiques nous semble tout indiquée. Toutefois, il existe peu de ressources pédagogiques pour les enseignants du primaire. Nous proposons donc d’en créer, nous appuyant sur l’approche constructiviste, approche prônée par nos deux programmes d’études (OBI et MÉLS). Nous relevons donc les avantages à intégrer l’histoire des mathématiques pour les élèves (intérêt et motivation accrus, changement dans leur façon de percevoir les mathématiques et amélioration de leurs apprentissages et de leur compréhension des mathématiques). Nous soulignons également les difficultés à introduire une approche historique à l’enseignement des mathématiques et proposons diverses façons de le faire. Puis, les concepts mathématiques à l’étude, à savoir l’arithmétique, et la numération, sont définis et nous voyons leur importance dans le programme de mathématiques du primaire. Nous décrivons ensuite les six systèmes de numération retenus (sumérien, égyptien, babylonien, chinois, romain et maya) ainsi que notre système actuel : le système indo-arabe. Enfin, nous abordons les difficultés que certaines pratiques des enseignants ou des manuels scolaires posent aux élèves en numération. Nous situons ensuite notre étude au sein de la recherche en sciences de l’éducation en nous attardant à la recherche appliquée ou dite pédagogique et plus particulièrement aux apports des recherches menées par des praticiens (un rapprochement entre la recherche et la pratique, une amélioration de l’enseignement et/ou de l’apprentissage, une réflexion de l’intérieur sur la pratique enseignante et une meilleure connaissance du milieu). Aussi, nous exposons les risques de biais qu’il est possible de rencontrer dans une recherche pédagogique, et ce, pour mieux les éviter. Nous enchaînons avec une description de nos outils de collecte de données et rappelons les exigences de la rigueur scientifique. Ce n’est qu’ensuite que nous décrivons notre séquence d’enseignement/apprentissage en détaillant chacune des activités. Ces activités consistent notamment à découvrir comment différents systèmes de numération fonctionnent (à l’aide de feuilles de travail et de notations anciennes), puis comment ces mêmes peuples effectuaient leurs additions et leurs soustractions et finalement, comment ils effectuaient les multiplications et les divisions. Enfin, nous analysons nos données à partir de notre journal de bord quotidien bonifié par les enregistrements vidéo, les affiches des élèves, les réponses aux tests de compréhension et au questionnaire d’appréciation. Notre étude nous amène à conclure à la pertinence de cette séquence pour notre milieu : l’intérêt et la motivation suscités, la perception des mathématiques et les apprentissages réalisés. Nous revenons également sur le constructivisme et une dimension non prévue : le développement de la communication mathématique.