558 resultados para Théorie de la diaspora
Resumo:
La protection des enfants dans les pays en développement constitue encore aujourd’hui une problématique qui continue à alimenter la préoccupation et des débats sur l’avenir des enfants à l’échelle nationale et internationale. En dépit des interventions répétées des organismes internationaux œuvrant dans le domaine de la protection des enfants à travers le monde, les conditions socioéconomiques de millions d’enfants ne cessent d’empirer, laissant ainsi leur avenir dans une incertitude accablante. Le souci de secourir ces enfants a ouvert la voie à l’amplification du phénomène d’adoption internationale qui témoigne d’une forme de «solidarité» internationale en faveur des enfants à travers le monde mais qui finit par s’imposer comme une forme de protection sociale qui transcende les frontières nationales. En Haïti, la précarité des conditions de vie a permis la mise en action d’un ensemble de stratégies d’entraide se reposant sur des liens communautaires forts qui se veut une sorte de soupape pour amortir les impacts sur les membres de la famille, mais qui s’étend parfois sur toute la communauté. Dans cette dynamique, l’enfant bénéficie d’une attention soutenue. Ainsi, certains membres de la diaspora haïtienne en Amérique du Nord, plus précisément à Montréal ont procédé à l’adoption dans leur famille élargie en Haïti. L’objectif de cette recherche est donc de dégager une appréhension de l’adoption intrafamiliale en Haïti, plus particulièrement celle réalisée par des haïtiens vivants à Montréal. Mais de manière spécifique, nous visons à : 1) comprendre la nature des décisions d’adopter et sa spécificité en contexte d’adoption intrafamiliale chez les adoptants québécois originaires d’Haïti, 2) établir les étapes et le contexte des démarches d’adoption qui caractérisent les projets des adoptants haïtiens québécois et 3) comprendre dans quelle mesure la protection des enfants fait partie du désir d’adopter chez ces adoptants en dégageant leur point de vue. Cette recherche nous a permis de comprendre que l’adoption intrafamiliale en Haïti est marquée par une grande diversité de motivations tels que le désir d’enfants, le sauvetage des enfants, la redevance sociale, la réussite sociale de l’enfant, l’accès à l’éducation, le désengagement social, le souci de maintenir à distance l’esprit de clan et le don d’enfants. Si ces motifs visent pour la plupart à la protection de l’enfant, ils sont aussi en lien avec la culture haïtienne qui voit dans celui-ci une véritable lueur d’espoir pour l’amélioration des conditions de vie des parents dans leurs vieux jours.
Resumo:
Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk
Resumo:
Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
Cette thèse s’inscrit au cœur du chantier de réflexion sur l’interaction entre les États et les entreprises multinationales qui s’impose dans le contexte de l’accélération actuelle du processus de mondialisation de l’économie capitaliste. Nous l’abordons sous l’angle plus particulier des multinationales et de leur engagement institutionnel au sein des organisations, associations, forums ou réseaux qui contribuent à la définition et parfois même à la gestion des différentes politiques publiques orientées vers le développement économique, l’innovation et le marché du travail. Quelles sont les différentes facettes de l’engagement institutionnel des filiales de multinationales au Canada ? Comment ces comportements peuvent-ils être influencés par les différentes caractéristiques et stratégies de ces entreprises ? Un modèle théorique large, empruntant des hypothèses aux nombreuses approches théoriques s’intéressant aux comportements généraux des multinationales, est testé à l’aide d’analyses quantitatives de données obtenues dans le cadre d’une enquête auprès des multinationales au Canada associée au projet international INTREPID. D’abord, cette thèse permet une opérationnalisation plus précise du concept d’« imbrication de la firme » à travers la notion d’engagement institutionnel. Elle met en évidence les différentes dimensions de ce phénomène et remet en question la vision « essentiellement » positive qui l’entoure. Les résultats de cette thèse viennent questionner de la centralité des approches macro-institutionnalistes, particulièrement celle associée aux Variétés du capitalisme, dans les études sur les multinationales. Ils réaffirment par contre l’importance des différentes approches économiques et démontrent plus particulièrement la pertinence de la théorie de la dépendance aux ressources et l’impact de la présence d’un acteur structuré venant faire le contrepoids aux gestionnaires. Malgré nos efforts de théorisation, nous sommes incapable d’observer un effet modérateur des facteurs stratégiques sur l’impact du pays d’origine dans la détermination de l’engagement institutionnel. Cette thèse offre des indications permettant de cibler les interventions institutionnelles qui cherchent à « attacher » les multinationales à l’économie canadienne. Elle met aussi en évidence la contribution d’acteurs indirects dans la consolidation des relations d’engagement institutionnel et plus particulièrement le rôle positif que peuvent jouer les syndicats dans certains forums ou réseaux.
Resumo:
Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
De récents développements en théorie de la decision ont largement enrichi notre connaissance de la notion d'incertitude knightienne, usuellement appelée ambiguïté. Néanmoins ces dévelopement tardent à être intégrés au coeur de la théorie économique. Nous suggérons que l'analyse de phénonèmes économiques tel que l'innovation et la Recherche et Développement gagnerait à intégrer les modèles de décision en situation d'ambiguïté. Nous étayons notre propos en analysant l'allocation des droits de propriété d'une découverte. Les deux premières parties de la présentation s'inspire d'un modèle d'Aghion et de Tirole, The Management of Innovation, portant sur l'allocation des droits de propriété entre une unité de recherche et un investisseur. Il est démontré qu'un désaccord entre les agents sur la technologie de recherche affecte leur niveau d'effort, l'allocation des droits de propriété et l'allocation des revenus subséquents. Finalement, nous examinons une situation où plusieurs chercheurs sont en compétition en s'inspirant du traitement de l'incertitude de Savage. La présence d'ambuïgité affecte le comportement des agents et l'allocation des droits de propriétés de manière qui n'est pas captée en assumant l'hypothèse de risque.
Resumo:
A literary text is a milieu in which different intermedial relations can occur. Borrowing on Bolter and Grusin’s notion of remediation and displacing the latter from digital technologies to literature, this article defines three strategies by which a novel can convoke modes that are conventionally related to other forms of mediation. The breaking points and the blanks that result from these intermedial strategies are then discussed from a reader-response perspective, to substantiate the hypothesis that a strong intermedial dynamic in a novel enhances the reader’s activity. Océan mer serves as a ground for an analysis that demonstrates the dynamism of the interactions that characterize such an intermedial object.
Resumo:
On imagine mal aujourd'hui un « spectacle » théâtral qui ne recourrait pas aux technologies de reproduction du son, c'est-à-dire à des « projections » sonores. Ce qui est aujourd'hui la règle était pourtant l'exception il y a moins d'un demi-siècle. Cette anecdote soulève des questions qui sont au coeur de la réflexion intermédiale : la place de la technologie et sa « naturalisation », le rôle des dispositifs, l'agentivité des « usagers », les rapports entre médias et médiations, l'institutionnalisation des pratiques médiatiques, etc. [...]
Resumo:
Cet article est avant tout une présentation générale du standpoint theory mais vise tout particulièrement à souligner la relation épistémologique qui unit cette théorie féministe à la théorie marxiste. Ainsi il y sera démontré que l’expérience de l’oppression, et donc de la souffrance qui l’accompagne, est en mesure de représenter un avantage épistémique que les groupes subissant l’oppression peuvent tourner à leur avantage. Il sera donc question d’un nouveau type d’objectivité délaissant le concept de neutralité en faveur d’une subjectivité pleinement assumée.