25 resultados para Scale not given.None

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

À l'ère de la mondialisation, où la matrice capitaliste continue de dominer, la classification dans les groupes se définit encore en termes de classes, de genres et d'ethnicité. Les transformations causées par la mondialisation actuelle entraînent de nouveaux modes de production, qui à leur tour transforment les modes de définition et de régulation des populations. Le projet d'exploitation du Nord du Québec est un phénomène relativement récent; or, le processus de construction d'une classe sociale n'est pas un phénomène nouveau. La formation des classes sociales étant toujours en évolution, il semble aujourd'hui pertinent de réexaminer les facteurs économiques, sociologiques et historiques des caractéristiques théoriques nécessaires à la construction et à la représentation d'une classe sociale dont l'existence est liée à l'exploitation accrue des richesses naturelles, la classe ouvrière du Nord du Québec.

 À Fermont, dans le Nord du Québec, les compagnies minières emploient depuis 2011 une grande quantité de travailleurs québécois provenant de l'extérieur de la région, des travailleurs permanents non- résidents. Ainsi, la structure sociale construite sur la force de travailleurs locaux est aux prises avec de nouvelles dynamiques de mobilité sociale géographique. Au travail, les femmes et les autochtones sont aussi affectés par les relations des systèmes de pouvoir de la vie quotidienne, car les emplois de l'industrie minière et du domaine de la construction sont socialement et historiquement fondés sur des capitaux sociaux et culturels (blanc et homme). La classe ouvrière du Nord du Québec est redéfinit par son rapport à la migration géographique des travailleurs permanents non- résidents, par ses relations avec les minorités de genre et les minorités autochtones, relations qui engendrent une organisation sociale complexe et hétérogène.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

De par sa présence dans tous les vaisseaux sanguins, l'endothélium joue un rôle clef dans le processus d’hémostase, tant par sa libération de facteurs anticoagulants que par ses changements protéiques qui permettent à l’organisme de déclencher la réparation tissulaire. La fonction anticoagulante de l’endothélium peut être mise en défaut en cas d’atteinte de son intégrité, entrainant la formation de thrombus, le rejet précoce de greffes ou encore l’induction de l’athérosclérose. L’intégrité de l’endothélium est donc capitale pour la prévention de nombreuses maladies cardiovasculaires. Chez l’adulte, les cellules endothéliales (CE), normalement quiescentes, sont rapidement activées en cas d’hypoxie ou d’inflammation, leur permettant ainsi d’amorcer le processus angiogénique comme suit: Tout d’abord, l’induction de l’hyperperméabilité vasculaire permet l’extravasation des protéines plasmatiques. Ensuite, la dégradation de la lame basale par des métalloprotéases permet aux CE de se détacher, de proliférer, de migrer et de s’organiser pour former l’ébauche du futur vaisseau. La dernière étape consiste en la maturation du vaisseau, c’est-à-dire son recouvrement par des cellules murales, telles que les cellules musculaires lisses et les péricytes. Ces processus sont régulés par de nombreux facteurs angiogéniques tels que les membres de la famille Notch, du vascular endothelial growth factor (VEGF), du fibroblast growth factor (FGF), des angiopoïétines, et des matrix metalloproteases (MMP). L’angiogenèse pathologique, soit une insuffisance ou un excès de vascularisation, est impliquée dans les blessures chroniques, les accidents cardiovasculaires, les pathologies coronariennes artérielles, les pathologies tumorales, l’arthrite rhumatoïde, la rétinopathie diabétique, l’athérosclérose, le psoriasis et l’asthme. Ces pathologies sont souvent issues d’une dérégulation de l’activité endothéliale, fréquemment observée conjointement à l’expression continue de molécules d’adhésion leucocytaires, à l’augmentation de la perméabilité vasculaire, et aux anomalies de la vasoréactivité. L’activation non-contrôlée de l’endothélium entraîne ainsi une inflammation chronique et la formation de structures vasculaires anarchiques. Les premiers leucocytes à répondre à l’appel inflammatoire sont les neutrophiles. Equippées d’une panoplie de produits antibactériens puissants mais aussi nocifs pour les tissus qui les entourent, ces cellules polylobées participent à chaque étape du processus inflammatoire, depuis l’induction de l’hyperperméabilité vasculaire jusqu’à la résolution. En effet, grâce à leurs récepteurs, les neutrophiles détectent et interprètent les signaux biochimiques présents dans la circulation et à la surface de l’endothélium, et libèrent aussi leurs propres médiateurs tels le VEGF, les MMP, et l’interleukine-8 (IL-8), dont les effets sont à la fois paracrines et autocrines. Existent-ils d’autres modulateurs typiques de la fonction endothéliale capables d’influencer le comportement des neutrophiles? En effet, notre laboratoire a démontré que chez l’humain, une stimulation directe aux angiopoïétines incitait les neutrophiles à adhérer aux CE, à migrer, à synthétiser et à relâcher l’IL-8, voire même à vivre plus longtemps. La présence du récepteur des angiopoïétines, Tie2, à la surface des neutrophiles laisse présager que la famille possèderait d’autres fonctions leucocytaires encore non-identifiées. Par ailleurs, dans un modèle classique de l’angiogenèse in vivo (matrigel), nous avons observé que sous l’effet du FGF1 et 2, les ébauches des nouveaux vaisseaux étaient parfois accompagnées d’une infiltration de cellules granulocytaires. Ainsi, en partant de ces observations, l’objectif de nos études (présentées ci-après) était d’approfondir nos connaissances sur la relation entre neutrophiles et facteurs angiogéniques, notamment les FGF et les angiopoïétines. Par tests in vitro, nous avons confirmé que les neutrophiles humains exprimaient plusieurs récepteurs du FGF (FGFR1-4) d’une façon hétérogène, et qu’ils migraient vers un gradient des ligands FGF1 et 2. Par ailleurs, nous nous sommes intéressés aux voies de signalisation inflammatoires activées par les ligands FGF1, FGF2, Ang1 et Ang2. Grâce à une stratégie génique ciblant 84 gènes inflammatoires, nous avons identifié plusieurs cibles d’intérêt touchées par Ang1, dont certains membres de la famille de l’IL-1, alors qu’aucun des gènes testés n’avait changé de façon significative sous l’effet des FGF ou d’Ang2. Suite à des cinétiques approfondies, nous avons démontré qu’Ang1 stimulait la transcription de l’ARN messager de l’IL-1β, et augmentait simultanément la quantité de protéine immature (pro-IL-1β; inactive) et clivée (IL-1β « mature »; active). En parallèle, Ang1 augmentait la sécrétion de l’antagoniste naturel de l’IL-1β, l’IL-1RA, sans pour autant stimuler la relâche de l’IL-1β. A l’instar des endotoxines bactériennes dont les effets liés à l’IL-1 dépendaient de la kinase p38, ceux d’Ang1 découlaient presque entièrement des voies de signalisation du p42/44.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons effectué ce travail afin d’évaluer l’impact d’une utilisation accrue des antirétroviraux (ARV) sur l’émergence de la résistance dans le cadre d’une cohorte de sujets infectés par le VIH-1, enrôlés au Mali pour recevoir la thérapie antirétrovirale. La première partie de ce travail a évalué la résistance primaire auprès de 101 sujets naïfs aux ARV. Cette étude a démontré que la majorité des sujets (71,3%) étaient infectés par le sous-type CRF02_AG. La prévalence de la résistance primaire était de 9,9%. Ce chiffre dépasse largement la moyenne de 5,5% observée dans les pays en développement et le seuil des 5% fixé par l’OMS dans le cadre de la surveillance de la résistance. Les mutations associées aux analogues de la thymidine ou « Thymidine-associated Mutations » (TAMs): M41L, D67N, L210W, T215A/Y, K219E liées à la résistance aux inhibiteurs nucléosidiques de la transcriptase inverse (INTI) ainsi que les mutations K103N, V108I, V179E et Y181C impliquées dans la résistance aux inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) étaient majoritairement observées. Ces mutations sont compatibles avec les régimes de traitement de première ligne utilisés au Mali, composés de stavudine/lamivudine/nevirapine. Nous n’avons pas trouvé de mutations majeures aux inhibiteurs de protéase (IP), probablement du fait que cette classe d’ARV est rarement utilisée au Mali. Cependant plusieurs polymorphismes au niveau du gène de la protéase, particulièrement L10I et L10V ont été observés à une fréquence très élevée (18,80%). Compte tenu de ces premiers résultats, une suite logique de ce travail était de savoir comment des souches de sous-type CRF02_AG évolueraient sous la pression de sélection des ARV. Nous avons abordé ces questions dans une étude de cohorte de 132 sujets infectés majoritairement avec le sous-type CRF02_AG débutant une thérapie de première ligne. Nos résultats suggèrent que la présence de mutation de résistance primaire pourrait avoir un effet sur l’efficacité du traitement. Par exemple, la présence d’une seule mutation INNTI avant traitement comme K103N ou V179E était suffisante pour mener à l’échec au traitement (charge virale supérieure à 400 copies/ml). Par ailleurs, nous avons effectué des expériences in vitro pour mieux évaluer l’impact du polymorphisme L10I/V chez le sous-type CRF02_AG. Il faut savoir que le rôle de ce polymorphisme reste incertain chez le sous-type CRF02_AG, car aucune étude in vitro n’avait été réalisée auparavant. Nos résultats indiquent chez le sous-type sauvage CRF02_AGwt_10L une légère augmentation de la concentration inhibitrice 50% (IC50) pour le darunavir, le lopinavir et le nelfinavir comparativement au sous-type de référence B HXB2_10L avec respectivement un « Fold Change » (FC) de 1,2, 1,3 et 1,5. Cette augmentation est plus importante pour le lopinavir avec un FC (1,3) très proche de son seuil biologique (1,6). Comparativement au type sauvage CRF02_AGwt_10L, nos deux mutants CRF02_AGL10I et CRF02_AGL10V ont démontré une légère augmentation d’IC50 pour l’indinavir (avec respectivement un FC de 1,3 et 1,2) et une diminution pour le lopinavir (avec respectivement un FC de 0,78 et 0,75). Toutes ces observations suggèrent que la mutation en position 10 pourrait avoir un impact chez le sous-type CRF02_AG. Toutefois, la signification clinique de ces observations doit être déterminée. En conclusion, nos résultats supportent d’une part la nécessité de renforcer la surveillance de la résistance aux ARV et d’autre part, il fournit des informations nécessaires à l’amélioration des stratégies thérapeutiques afin de prévenir les échecs aux traitements chez les sous-types non B, particulièrement le CRF02_AG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À la base, les jeux de hasard et d’argent (JHA) se révèlent pour la grande majorité des gens une activité ludique agréable. On les associe effectivement aux loisirs, puisqu’ils répondent pratiquement aux mêmes besoins, dont la curiosité, le divertissement, la détente, la socialisation et la reconnaissance (Chevalier, 2003; Chevalier & Papineau, 2007; Paradis & Courteau, 2003). En contrepartie, ils constituent tout de même un risque d’excès. Bien que personne ne soit vraiment à l’abri de la dépendance, les écrits scientifiques montrent que certains groupes se révèlent particulièrement à risque. Avec les personnes qui souffrent de troubles mentaux et toxicomaniaques (Walters, 1997), la population correctionnelle se trouve parmi les individus les plus susceptibles de présenter des problèmes liés au jeu pathologique (Abbott, McKenna, & Giles, 2005; Ashcroft, Daniels, & Hart, 2004; Lahn, 2005). Or, si plusieurs études informent sur les habitudes de jeu précarcérales des hommes condamnés à l’emprisonnement, peu renseignent sur ce qu’il advient de cette pratique à l’intérieur des établissements de détention. Malgré une interdiction formelle des services correctionnels, on reconnaît pourtant la présence des JHA en prison (Abbott et al., 2005; Lahn & Grabosky, 2003; Nixon, Leigh, & Grabosky, 2006; Williams, Royston, & Hagen, 2005; Lahn, 2005). Cependant, la plupart des études se contentent trop souvent de dresser un portrait purement descriptif des types de jeux et des formes de mises. Une meilleure compréhension de cette pratique intra-muros se révèle essentielle, ne serait-ce que si l’on tient compte de la proportion non négligeable de détenus aux prises avec une telle dépendance. Cette thèse entend donc améliorer la compréhension de cette pratique dans les établissements de détention fédéraux du Québec, en se basant sur l’opinion et l’expérience de 51 hommes qui y sont incarcérés. Des entrevues qualitatives en français ont été effectuées avec des détenus québécois de plus de 18 ans, purgeant une peine d’emprisonnement minimale de vingt-quatre mois. Les résultats obtenus suite à des analyses thématiques sont répartis dans trois articles scientifiques. Le premier article décrit le déroulement des JHA intra-muros et analyse l’influence du milieu carcéral sur l’accès à ces activités et leur signification. Contrairement à nos attentes, le règlement interdisant les paris ne s’avère pas un obstacle central à leur pratique. Des éléments liés au contexte correctionnel et à la sentence en restreignent davantage la participation. La disponibilité et les bienfaits habituellement retirés des JHA, comme le plaisir et l’excitation, s’avèrent beaucoup plus limités que ce que ces activités offrent habituellement dans la société libre. Le second article étudie les conséquences potentielles des JHA, de même que la façon dont les détenus y réagissent. À la base, le seul fait que ces activités impliquent obligatoirement un échange d’argent, de biens de valeur ou de services rendus engendre pour tous les joueurs un risque de contracter des dettes. Une analyse dynamique montre que certaines frictions se développent autour des JHA, qui s’expliquent toutefois mieux par les caractéristiques du milieu carcéral. Le dernier article aborde les motifs qui justifient la participation ou non de la population correctionnelle à des JHA durant leur incarcération. Il tient compte des habitudes de jeu au cours des douze mois qui ont précédé la détention, soit des non-joueurs, des joueurs récréatifs et des joueurs problématiques. Pour la plupart des détenus, les JHA servent d’alternative ludique à l’ennui, mais certains les utilisent également dans le but de s’intégrer, voire indirectement de se protéger. Fait encore plus intéressant, malgré la présence de joueurs dépendants parmi les hommes interviewés, aucune des motivations généralement associées au jeu pathologique n’a été rapportée pour justifier la pratique des JHA en prison. En somme, les JHA demeurent généralement sans conséquence dans les établissements de détention québécois, puisque très peu de détenus semblent dépasser leurs limites et s’endetter. Les conflits entourant ces activités apparaissent surtout sous forme de querelles, suite à des doutes sur l’intégrité d’un joueur ou une défaite non assumée. Les événements violents, comme des règlements de compte, faisant suite à des dettes impayées se révèlent exceptionnels. Les résultats de cette thèse montrent également que certains joueurs pathologiques, malgré l’opportunité de s’adonner à des JHA, s’abstiennent ou cessent de miser au cours de leur incarcération. Ces dernières données permettent de réfléchir sur le concept de dépendance et sur les éléments prometteurs pour le traitement des joueurs problématiques incarcérés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.