1000 resultados para conception du réseau en fonction du temps
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Prédiction de l'attrition en date de renouvellement en assurance automobile avec processus gaussiens
Resumo:
Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.
Resumo:
L’accessibilité aux soins de santé est une priorité de nombreux gouvernements à travers le monde. En Haïti, les gouvernements se sont succédés et ont tenté à travers les années des interventions dont les résultats ne sont souvent pas satisfaisants. Le programme d’assistance médicale cubain, actuellement appliqué dans le pays, est en œuvre dans plus d’une vingtaine de pays en développement, mais il existe très peu d’évaluations indépendantes qui permettent de l’appréhender. Cet ouvrage se donne pour objectif de vérifier le bien fondé de cette intervention en tenant compte du contexte, d’établir la plausibilité en fonction des moyens du pays et finalement, de proposer des solutions qui améliorent la situation. Pour répondre à ces objectifs, l’étude de cas a été adoptée comme stratégie de recherche. Cette technique permet de mieux analyser le contexte, et de comprendre ses effets sur le programme. Des entrevues semi-structurées ont été réalisées pour permettre de faire les analyses stratégique et logique nécessaires pour atteindre les objectifs sus-cités. Les entrevues ont visé successivement la compréhension du modèle théorique, la détermination des problèmes pertinents auxquels fait le système de santé, les causes de la difficulté de rétention des professionnels et finale l’analyse du modèle. L’évaluation a révélé que l’accessibilité aux soins de santé est complexe et qu’un grand nombre de facteurs l’influencent. En Haïti, ces facteurs ne sont pas différents de ceux recensés dans la littérature. Mais la composante géographique associée à l’aspect administratif du système de santé en général constituent les éléments qui auraient l’impact le plus important sur l’accessibilité du système de santé. Vu les conditions actuelles, la modernisation de la gestion représente l’avenue à privilégier en attendant que les moyens permettent d’agir sur les autres facteurs. La rétention des professionnels de santé est un facteur essentiel de l’accessibilité aux soins de santé. Pour être efficace, les mécanismes de rétention utilisés doivent s’accompagner de mesures comme l’amélioration des conditions de travail, ainsi qu’un salaire compétitif. Les conditions de vie dans le milieu rural haïtien ne peuvent en rien être comparées à celles des pays développés. On ne peut espérer les mêmes résultats avec les programmes de rétention utilisés par cette intervention. Tenant compte du contexte socioéconomique et du tableau épidémiologique haïtien, il serait peut-être plus efficient de créer de nouveaux corps de métier. Ces derniers devraient être en mesure de régler les problèmes de santé simples, et occasionneraient des coûts moins importants. Ce serait à court terme et même à moyen terme une solution viable dans le contexte actuel. Le programme actuel s’il semble respecter les données probantes en matière d’accessibilité aux soins, néglige d’incorporer les paramètres spécifiques au milieu haïtien, nécessaires à l’atteinte de ses objectifs. La politisation excessive est aussi un facteur qui à terme pourrait conduire à l’échec de ce programme. Si à court terme le programme parvient à augmenter le nombre de professionnels de santé dans le pays, il est peu probable que cela dure. Les moyens précaires du pays ne lui permettent pas de se payer des professionnels hautement qualifiés dans les milieux sous desservis. L’intervention pour réussir doit intégrer les caractéristiques particulières du milieu et mettre plus d’accent sur la gestion du système.
Resumo:
Le sionisme est un mouvement politique et une idéologie nationale. Son histoire, si elle est celle d'une libération nationale, est aussi celle d'une tragédie. C'est une tragédie partagée par deux peuples dont les aspirations sont tout autant légitimes. Afin de bien comprendre et éventuellement d'être en mesure de surmonter cette tragédie, une analyse morphologique du sionisme est entreprise. L'approche morphologique de l'étude des idéologies a été développée par Michael Freeden. Appliquée au sionisme, elle fait ressortir quatre concepts fondamentaux de cette idéologie : la nation, l'antisémitisme, galout et la renaissance nationale. L'analyse de ces quatre concepts permettra de suivre l'évolution conceptuelle du sionisme à travers le temps et ses différentes variations idéationnelles. De plus, cela permettra de montrer comment le sionisme en tant qu'idéologie nationale s'est transformé en fonction des contextes sociopolitiques auxquels il était confronté.
Resumo:
Thèse réalisée en cotutelle (Université de Montréal et Université Paris Diderot - Paris 7)
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
Les mélanomes malins (MM) constituent le deuxième type de cancer le plus fréquent chez les jeunes adultes canadiens (entre 20 et 44 ans) ainsi qu’un des rares cancers dont l’incidence augmente annuellement. À moins que les MM ne soient excisés à temps par chirurgie, les chances de survie des patients sont pratiquement nulles puisque ce type de tumeur est très réfractaire aux traitements conventionnels. Il est bien connu que l’exposition aux rayons ultraviolets (UV), induisant des photoproduits génotoxiques, est une déterminante majeure dans l’acquisition de MM. À cet effet, la réparation par excision de nucléotides (NER) est la ligne de défense principale contre le développement des mélanomes puisqu’elle est la voie de réparation prépondérante en ce qui a trait aux dits photoproduits. Malgré cela, la contribution potentielle de défauts de la NER au développement des MM dans la population normale n’est toujours pas bien établie. Notre laboratoire a précédemment développé une méthode basée sur la cytométrie de flux qui permet de mesurer la NER en fonction du cycle cellulaire. Cette méthode a déjà mise en évidence qu’une déficience de l’activité de la protéine ATR peut mener à une déficience de la NER exclusive à la phase S dans des fibroblastes humains. Pareillement, nous avons démontré que plusieurs lignées cellulaires cancéreuses modèles comportent une déficience en NER en phase S, suggérant qu’une telle déficience puisse caractériser certains types de cancers. Nous avons voulu savoir si une déficience en NER en phase S pouvait être associée à une proportion significative de mélanomes et si le tout pouvait être attribuable à une diminution de l’activité d’ATR. Nos objectifs ont donc été de : (i) mesurer l’efficacité de la NER en fonction du cycle cellulaire dans les MM en comparaison avec les mélanocytes primaires, (ii) vérifier si le niveau d’activité d’ATR corrèle avec l’efficacité de la NER en phase S dans les lignées de MM et (iii) voir si un gène fréquemment muté dans les mélanomes (tels PTEN et BRAF) pouvait coopérer avec ATR pour réguler la NER en phase S dans les mélanomes. Nous avons démontré que 13 lignées de MM sur 16 ont une capacité grandement diminuée à réparer les photoproduits induits par UV spécifiquement en phase S. De plus, cette déficience corrèle fortement avec une réduction de l’activation d’ATR et, dans plusieurs lignées de MM, avec une phosphorylation d’Akt plus importante. L’utilisation d’ARN interférent ou d’un inhibiteur du suppresseur de tumeurs PTEN, a permis, en plus d’augmenter la phosphorylation d’Akt, de réduire la réparation des photoproduits et l’activation d’ATR dans les cellules en phase S. En addition, (i) l’expression ectopique de la protéine PTEN sauvage dans des lignées déficientes en PTEN (mais pas d’une protéine PTEN sans activité phosphatase) ou (ii) l’inhibition pharmacologique d’Akt a permis d’augmenter la réparation en phase S ainsi que l’activation d’ATR. En somme, cette étude démontre qu’une signalisation d’ATR dépendante de PTEN/Akt amenant à une réparation déficiente des photoproduits génomiques causés par les UV en phase S peut être déterminante dans le développement des mélanomes induits par UV.
Resumo:
Pinker et Bloom (1990), deux représentants de la psychologie évolutionniste, soutiennent que le langage est une adaptation biologique ayant pour fonction la communication. Ils prétendent ainsi jeter un éclairage sur l’origine et l’évolution du langage. Le présent mémoire propose une analyse critique de leur argumentation, et ce, du point de vue de la philosophie de la biologie. D’une part, il tente de dissiper la confusion entourant la conception du langage adoptée par Pinker et Bloom, afin de mieux définir le trait censé constituer une adaptation biologique. Ce faisant, ce mémoire fait ressortir certains présupposés de leur conception du langage et en souligne l’aspect problématique. En ce sens, les concepts d’innéité, de modularité, de grammaire universelle et de systématicité sont abordés de façon critique. D’autre part, ce travail entend expliciter un concept clé de l’argumentation de Pinker et Bloom : celui d’adaptation. L’analyse montre que l’opposition entre adaptationnisme et anti-adaptationnisme tient, dans le cas présent, à une divergence quant à la façon de définir l’adaptation biologique. Une distinction importante doit être faite entre une adaptation résultant exclusivement de la sélection naturelle dans un contexte fonctionnel particulier et une adaptation qui n’exclut pas a priori d’autres facteurs évolutifs, dont l’exaptation. Dans la mesure où l’argumentation de Pinker et Bloom conduit à affirmer que le langage constitue une adaptation seulement au deuxième sens du terme, ce mémoire montre qu’ils ne sont pas à même de rendre compte de l’origine du langage.
Resumo:
A partir des résultats d’une enquête effectuée en 2005 sur un échantillon de 203 dirigeants publics, une typologie floue de trois profils a été dégagée en vue de concevoir un système d’affectation des dirigeants en fonction de leur style du leadership, sens du travail, et leurs préoccupations de gestion des ressources humaines. En se basant sur cette typologie floue, des techniques empruntées à l’intelligence artificielle ont été appliquées pour apprendre des règles de classification. Ces techniques sont au nombre de quatre : le réseau neuronal (Neural Network), l’algorithme génétique (Genetic Algorithm), l’arbre de décision (Decision Tree) et la théorie des ensembles approximatifs (Rough Sets). Les résultats de l’étude ainsi que ses perspectives seront présentées et discutés tout au long de cette communication.
Resumo:
Les expériences de spectroscopie ont été réalisées en collaboration avec Jean-François Allard du groupe de Denis Morris de l'Université de Sherbrooke.
Resumo:
Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.
Resumo:
Il est convenu de dire que la famille d’aujourd’hui se construit de multiples façons. Les familles recomposées, issues des nouvelles technologies de la reproduction, de l’adoption internationale ou dont les parents sont de même sexe font partie du paysage depuis de nombreuses années, au point où elles n’étonnent plus. Ces familles ont comme particularité de remettre en question l’adéquation entre la sexualité du couple et la reproduction tout en introduisant d’autres personnes dans la conception ou dans l’éducation des enfants. Malgré la polymorphie des familles contemporaines, perdure toutefois une certaine représentation de la famille basée sur le sang partagé entre les différents membres qui la composent. En ce sens, les « vrais » parents sont ceux qui sont à l’origine de la naissance de l’enfant (Déchaux, 2007; Deliège, 2005). Parallèlement à cela, on constate l’émergence d’un discours centré sur l’importance du père pour le développement et le bien-être de l’enfant, au point où l’absence du père au sein du foyer familial tend de plus en plus à être conceptualisée comme un problème social majeur (Kelly, 2009). De fait, les recherches démontrent que l’engagement paternel profite autant aux enfants qu’au père et à la mère. C’est dans ce contexte que s’inscrivent les familles lesboparentales dont les enfants sont nés d’un donneur connu. Cette thèse a comme objectif de comprendre le rôle du donneur au sein des familles lesboparentales, à savoir la place que lui font les mères dans leur projet parental. Nous cherchons également à comprendre comment ce rôle s’actualise. Pour ce faire, nous avons interrogé neuf (9) couples lesbiens et les neuf (9) donneurs à l’origine de leur projet parental. Les résultats présentent un niveau différencié d’implication des donneurs en fonction de la mise à distance ou de l’appropriation par les mères du schéma nucléaire traditionnel.