314 resultados para Bande
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Quel est le champ d’action des Amérindiens dans le contexte politique canadien? Malgré les tentatives de l’État canadien de briser la structure politique traditionnelle des Autochtones en introduisant le système électif et politique du conseil de bande, ceux-ci sont loin d'avoir été des victimes passives. L'étude du leadership interstitiel est la ligne directrice de cette thèse car il est la clé d’une pratique politique « in the cracks » qui confère un pouvoir marginal aux Amérindiens. En s'intéressant aux conditions historiques et sociales de déploiement de l’arène politique en milieu de réserve, il est possible de comprendre la quotidienneté et la contemporanéité de l’exercice du pouvoir au sein d’une population minoritaire fortement politisée. La recherche ethnographique porte sur la politique locale de la communauté algonquine de Kitigan Zibi (Québec). L’analyse des acteurs anishnabeg a montré une variabilité du leadership politique chez les Algonquins et l’existence de différents types de leader malgré l’imposition d’une fonction de chef par la Loi sur les Indiens. Le contrôle des affaires politiques officielles d’une bande par les agents coloniaux, c'est-à-dire les missionnaires et les agents indiens, n’a pas donné lieu à un contrôle total de sa dynamique politique interne et de ses membres. L'enquête de terrain a dévoilé que les diverses manifestations et actions politiques menées par les Anishnabeg s’avèrent être des stratégies du pouvoir dans la marge, une forme quotidienne de résistance face aux nouvelles façons de faire la politique établies par les autorités canadiennes, des ruses et des tactiques employées pour tenter de changer le système formel en remettant en question le pouvoir des Affaires indiennes. La contestation et la résistance ne sont toutefois pas l’unique moteur du leadership et de la politique amérindienne. En fait, le leadership politique chez les Kitigan Zibi Anishnabeg est aussi basé sur diverses représentations (traditionnelles, spirituelles, symboliques) qui ont permis aux Algonquins de préserver une identité politique malgré certaines ruptures et transformations introduites dans leur société par les colonisateurs. Les ambiguïtés, les contradictions et les paradoxes de la quotidienneté politique d’une bande autochtone ne sont pas que le résultat de la rencontre d’un univers politique Autre, mais aussi l’aboutissement de l’évolution et de la reconstruction d’un système sociopolitique traditionnel et de ses dynamiques internes reliées au pouvoir, d’une redéfinition de l’autorité et de la légitimité du politique, de l'essor de leaders nouveau genre pour répondre adéquatement aux exigences politiques de la vie en réserve. La politique de réserve n’est pas une chose concrète mais plutôt une dynamique dans un temps et dans un lieu donné, au chevauchement culturel de diverses traditions politiques et formes d’autorité, au truchement de divers espaces (imposé ou symbolique) et institutions (formelle et informelle). Les Algonquins se renouvellent continuellement politiquement au sein de leur système. Ceci n’est pas un effet de l’acculturation, d’une hybridité ou de la modernité mais relève bien de la tradition. Le rattachement de fonctions et dynamiques traditionnelles à la structure formelle constitue un début de gouvernance « par le bas ». Cette dernière renouvelle de l’intérieur, par l’établissement d’un dialogue, la relation entre les leaders autochtones et les représentants de l’État, ce qui donne aux acteurs locaux une marge de manœuvre. Les Algonquins ont saisi les incompatibilités des deux systèmes – blanc et autochtone – pour définir un nouveau territoire, « in the cracks », qui devient leur domaine d’action. L'analyse de la flexibilité du leadership algonquin, de la vision eurocanadienne du leadership amérindien, de l’usage instrumental des exigences de l’État, des élections et des éligibles contemporains, de l'empowerment des femmes algonquines et du leadership féminin en milieu de réserve, a révélé que le leadership interstitiel est une force politique pour les Kitigan Zibi Anishnabeg. En portant un regard critique sur la politique locale dans le quotidien d'une bande et en incluant les voix autochtones, il est possible d’observer le processus de décolonisation et des formes embryonnaires de pratiques postcoloniales au sein des réserves. Cette recherche a démontré que le chef et les autres leaders sont au cœur de cette dynamique politique dans les marges, de l’essor et de l’émancipation politique de leur bande.
Resumo:
Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.
Resumo:
Notre mémoire de recherche-création a pour point de départ deux conceptions sonores filmiques, auxquelles nous avons contribué en tant que monteur et concepteur sonores. Ces films – et leur bande sonore – ont, par leur forme, leur contenu, mais aussi par la dynamique ayant rythmé leur création, redéfini un aspect ou un autre de notre pratique. Ainsi, au moyen d'une auto-poïétique, nous explorons les différentes conditions de la création sonore mises en jeu, qu'elles soient d'ordre technique – le film Saint-Denys Garneau – ou d'ordre esthétique – le film Ma famille en 17 bobines. Dans chaque cas, nous cherchons aussi à explorer les problèmes poétiques et pratiques posés. Au creux de cette conjugaison de ces conditions émergent alors des outils de médiation, des relations humaines, des mouvements esthétiques et des postures d'écoute qui jettent un éclairage inédit sur notre pratique sonore.
Resumo:
Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.
Resumo:
Ce travail est axé vers la compréhension détaillée des propriétés de luminescence de composés de certains métaux lourds. La première partie de ce mémoire décrit la caractérisation spectroscopique d'un radical de type nitronyle nitroxyde, 2-(2-pyridinyl)-4,4,5,5-tétraméthyl-4,5-dihydro-1H-imidazolyl-1-oxyl-3-oxyde, abrégé (NIT2-Py), et de ses complexes avec les cations Tb(III), [Tb(hfac)3NIT2-Py], et Y(III), [Y(hfac)3NIT2-Py]. La variation de la température affecte les spectres de luminescence qui montrent de la structure vibronique résolue. Les maxima de ces transitions vibroniques se rapprochent au fur et à mesure que la température augmente. Ces variations des maxima en fonction de la température ne correspondent pas à des variations de fréquences vibrationnelles et sont de l'ordre de 200 cm-1 entre 80 K et 240 K. La variation de la température n'a pas d'influence significative sur la structure moléculaire, comme atteste la variation mineure des maxima des spectres Raman entre 80 K et 300 K. La comparaison des spectres expérimentaux à des spectres calculés montre que ces variations peuvent être reproduites par l'utilisation d'une combinaison de fréquences vibrationnelles. Le paramètre dont la variation est très significative est la résolution du spectre de luminescence, représentée par la largeur à mi-hauteur des transitions vibroniques qui forment le spectre de luminescence. La deuxième partie de ce mémoire décrit les propriétés de luminescence d'une série de complexes d’or(I). Elles sont comparées aux changements structuraux à pression et température variable. Les interactions aurophiles ont une grande influence sur la luminescence. La variation de la température et de la pression est une approche efficace pour varier la luminescence. Les effets observés dans les spectres d'émission de ces complexes dépendent des changements de structure induits par variation de la température et de la pression. Ces petites variations structurales mènent à des changements importants, à titre d'exemple à un déplacement du maximum de la bande de luminescence de 60 cm-1/ kbar vers les faibles énergies pour un des complexes de l'or(I) étudiés au cours de ce projet.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.
Resumo:
L’agression sexuelle (AS) commise envers les enfants est un sujet complexe à enquêter et les allégations reposent souvent exclusivement sur le témoignage de l’enfant. Cependant, même quand l’enfant divulgue une AS, il peut être réticent à révéler certains détails personnels et gênants de l’AS à un étranger. Étant donné qu’il n'est pas toujours possible d'obtenir le consentement de filmer et qu’il est relativement difficile de mesurer l’attitude non verbale de l’enfant et celui de l’enquêteur au cours des entrevues d’investigations, cette recherche a été novatrice dans sa création d’échelles verbales de telles attitudes. Afin de déterminer la corrélation de l’attitude des enquêteurs et la collaboration des enfants, 90 entrevues d’enfants âgés de 4 à 13 ans ont été analysées. Les entrevues ont été enregistrées sur bande audio, transcrites et codifiées à l'aide des sous-échelles verbales d'attitudes soutenantes et non-soutenantes des enquêteurs ainsi que d’attitudes de résistance et de coopération de la part de l'enfant. La proportion des détails sur l’AS fournie par les enfants a également été calculée. Afin de comparer les entrevues avec et sans le protocole du National Institute of Child Health and Human Development (NICHD), une MANCOVA, contrôlant pour l’âge de l’enfant et la proportion de questions ouvertes, démontre tel qu’attendu que les entrevues avec le protocole obtiennent plus de détails fournis à la suite des questions ouvertes que les entrevues sans le protocole. Cependant, aucune différence ne ressort quant aux attitudes de l’enfant et celle de l’enquêteur. Afin de trouver le meilleur prédicteur de la quantité de détails dévoilés par les enfants, une analyse de régression multiple hiérarchique a été faite. Après avoir contrôlé pour l'âge de l’enfant, l’utilisation du protocole et la proportion de questions ouvertes, la résistance de l’enfant et l’attitude non-soutenante de l’enquêteur expliquent 28 % supplémentaire de la variance, tandis que la variance totale expliquée par le modèle est de 58%. De plus, afin de déterminer si la collaboration de l’enfant et l’attitude de l’enquêteur varient en fonction de l’âge des enfants, une MANOVA démontre que les enquêteurs se comportent similairement, quel que soit l'âge des enfants. Ceci, malgré le fait que les jeunes enfants sont généralement plus réticents et coopèrent significativement moins bien que les préadolescents. Finalement, une régression multiple hiérarchique démontre que le soutien de l'enquêteur est le meilleur prédicteur de la collaboration des enfants, au-delà des caractéristiques de l'enfant et de l’AS. Bien que l’utilisation du protocole NICHD ait permis des progrès considérables dans la manière d’interroger les enfants, augmentant la proportion de détails obtenus par des questions ouvertes/rappel libre et amplifiant la crédibilité du témoignage, l’adhésion au protocole n’est pas en soi suffisante pour convaincre des jeunes enfants de parler en détail d’une AS à un inconnu. Les résultats de cette thèse ont une valeur scientifique et contribuent à enrichir les connaissances théoriques sur les attitudes de l'enfant et de l'enquêteur exprimées lors des entrevues. Même si les enquêteurs de cette étude offrent plus de soutien aux enfants résistants, indépendamment de leur âge, pour promouvoir la divulgation détaillée de l’AS, de meilleures façons de contrer les attitudes de résistance exprimées par les jeunes enfants et une minimisation des attitudes non-soutenantes lors des entrevues sont nécessaires.
Resumo:
La problématique des enfants de la rue touche toutes les grandes villes du monde, Port-au-Prince en particulier n’est pas épargné par ce phénomène. Durant ces vingt dernières années, Haïti a connu une crise généralisée. La situation socioéconomique des familles particulièrement les familles défavorisées devient de plus en plus précaire. C’est ainsi que l’on trouve bon nombre d’enfants qui laissent leur toit familial pour s’installer dans les rues. Ces enfants occupent les places publiques, les cimetières, les marchés publics. Ils vivent de la prostitution, de vol, de la drogue et de toute autre activité susceptible de leur rapporter un peu d’argent. Pour se protéger contre les actes de violences systématiques à leur égard, ils se regroupent en bande et forment leur propre monde. Ils sont aussi exposés aux maladies sexuellement transmissibles et à d’autres infections opportunistes. Ainsi, la rue devient un champ d’intervention où bon nombre d’institutions se donnent pour mission de nettoyer la rue. Autrement dit, beaucoup d’acteurs passent par tous les moyens pour forcer ces enfants à laisser la rue pour regagner les espaces de socialisation. L’objectif de cette étude est de dégager une compréhension globale des modèles d’intervention réalisés par les institutions de prise en charge auprès des enfants de la rue à Port-au-Prince. D’une manière spécifique, l’étude vise à comprendre les représentations sociales des intervenants de la problématique des enfants de la rue à Port-au-Prince, comprendre les stratégies d’interventions de ces institutions, saisir le sens et l’orientation de ces pratiques d’intervention. Pour ce faire, neuf entrevues semi-dirigées ont été réalisées à Port-au-Prince auprès des intervenants travaillant dans trois institutions ayant des structures différentes (fermées, ouvertes, semi-ouvertes ou semi-fermées). Les résultats nous ont permis de découvrir que les intervenants perçoivent les enfants de la rue de trois manières : délinquants, victimes et acteurs. Toutefois, les interventions réalisées par les institutions auprès de ces enfants ne les considèrent surtout que comme des délinquants, parfois des victimes, mais pas tellement des acteurs en maîtrise de leurs vies. Ce faisant, les institutions priorisent la réintégration familiale, l’insertion ou la réinsertion scolaire et l’apprentissage d’un métier. L’objectif principal de ces interventions est de porter les enfants à changer de comportement afin qu’ils regagnent leur place dans la société.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Une variété d’opérations cognitives dépend de la capacité de retenir de l’information auditive pour une courte période de temps. Notamment l’information auditive prend son sens avec le temps; la rétention d’un son disparu permet donc de mieux comprendre sa signification dans le contexte auditif et mène ultimement à une interaction réussite avec l’environnement. L’objectif de cette thèse était d’étudier l’activité cérébrale reliée à la rétention des sons et, ce faisant, parvenir à une meilleure compréhension des mécanismes de bas niveau de la mémoire à court-terme auditive. Trois études empiriques se sont penchées sur différents aspects de la rétention des sons. Le premier article avait pour but d’étudier les corrélats électrophysiologiques de la rétention des sons variant en timbre en utilisant la technique des potentiels reliés aux événements. Une composante fronto-centrale variant avec la charge mnésique a été ainsi révélée. Dans le deuxième article, le patron électro-oscillatoire de la rétention a été exploré. Cette étude a dévoilé une augmentation de l’amplitude variant avec la charge mnésique dans la bande alpha pendant la rétention des sons ainsi qu’une dissociation entre l’activité oscillatoire observée pendant la rétention et celle observée pendant la présentation des sons test. En démontrant des différentes modulations des amplitudes dans la bande alpha et la bande beta, cette étude a pu révéler des processus distincts mais interdépendants de la mémoire à court-terme auditive. Le troisième article a davantage visé à mieux connaître les structures cérébrales soutenant la rétention de sons. L’activité cérébrale a été mesurée avec la magnétoencéphalographie, et des localisations des sources ont été effectuées à partir de ces données. Les résultats ont dévoilé l’implication d’un réseau cérébral contenant des structures temporales, frontales, et pariétales qui était plus important dans l’hémisphère droit que dans l’hémisphère gauche. Les résultats des études empiriques ont permis de souligner l’aspect sensoriel de la mémoire à court-terme auditive et de montrer des similarités dans la rétention de différentes caractéristiques tonales. Dans leur ensemble, les études ont contribué à l’identification des processus neuronaux reliés à la rétention des sons en étudiant l’activité électromagnétique et l’implication des structures cérébrales correspondantes sur une échelle temporelle fine.
Resumo:
Une sonde électrostatique de Langmuir cylindrique a été utilisée pour caractériser une post-décharge d’un plasma d’ondes de surface de N2-O2 par la mesure de la densité des ions et électrons ainsi que la température des électrons dérivée de la fonction de distribution en énergie des électrons (EEDF). Une densité maximale des électrons au centre de la early afterglow de l’ordre de 1013 m-3 a été déterminée, alors que celle-ci a chuté à 1011 m-3 au début de la late afterglow. Tout au long du profil de la post-décharge, une densité des ions supérieure à celle des électrons indique la présence d’un milieu non macroscopiquement neutre. La post-décharge est caractérisée par une EEDF quasi maxwellienne avec une température des électrons de 0.5±0.1 eV, alors qu’elle grimpe à 1.1 ±0.2 eV dans la early afterglow due à la contribution des collisions vibrationnelles-électroniques (V-E) particulièrement importantes. L’ajout d’O2 dans la décharge principale entraîne un rehaussement des espèces chargées et de la température des électrons suivi d’une chute avec l’augmentation de la concentration d’O2. Le changement de la composition électrique de la post-décharge par la création de NO+ au détriment des ions N2+ est à l’origine du phénomène. Le recours à cette post-décharge de N2 pour la modification des propriétés d’émission optique de nanofils purs de GaN et avec des inclusions d’InGaN a été étudié par photoluminescence (PL). Bien que l’émission provenant des nanofils de GaN et de la matrice de GaN recouvrant les inclusions diminue suite à la création de sites de recombinaison non radiatifs, celle provenant des inclusions d’InGaN augmente fortement. Des mesures de PL par excitation indiquent que cet effet n’est pas attribuable à un changement de l’absorption de la surface de GaN. Ceci suggère un recuit dynamique induit par la désexcitation des métastables de N2 suite à leur collision à la surface des nanofils et la possibilité de passiver les défauts de surface tels que des lacunes d’azote par l’action d’atomes de N2 réactifs provenant de la post-décharge. L’incorporation d’O2 induit les mêmes effets en plus d’un décalage vers le rouge de la bande d’émission des inclusions, suggérant l’action des espèces d’O2 au sein même des nanostructures.
Resumo:
Dans cette thèse, nous présentons quelques analyses théoriques récentes ainsi que des observations expérimentales de l’effet tunnel quantique macroscopique et des tran- sitions de phase classique-quantique dans le taux d’échappement des systèmes de spins élevés. Nous considérons les systèmes de spin biaxial et ferromagnétiques. Grâce à l’approche de l’intégral de chemin utilisant les états cohérents de spin exprimés dans le système de coordonnées, nous calculons l’interférence des phases quantiques et leur distribution énergétique. Nous présentons une exposition claire de l’effet tunnel dans les systèmes antiferromagnétiques en présence d’un couplage d’échange dimère et d’une anisotropie le long de l’axe de magnétisation aisé. Nous obtenons l’énergie et la fonc- tion d’onde de l’état fondamentale ainsi que le premier état excité pour les systèmes de spins entiers et demi-entiers impairs. Nos résultats sont confirmés par un calcul utilisant la théorie des perturbations à grand ordre et avec la méthode de l’intégral de chemin qui est indépendant du système de coordonnées. Nous présentons aussi une explica- tion claire de la méthode du potentiel effectif, qui nous laisse faire une application d’un système de spin quantique vers un problème de mécanique quantique d’une particule. Nous utilisons cette méthode pour analyser nos modèles, mais avec la contrainte d’un champ magnétique externe ajouté. La méthode nous permet de considérer les transitions classiques-quantique dans le taux d’échappement dans ces systèmes. Nous obtenons le diagramme de phases ainsi que les températures critiques du passage entre les deux régimes. Nous étendons notre analyse à une chaine de spins d’Heisenberg antiferro- magnétique avec une anisotropie le long d’un axe pour N sites, prenant des conditions frontière périodiques. Pour N paire, nous montrons que l’état fondamental est non- dégénéré et donné par la superposition des deux états de Néel. Pour N impair, l’état de Néel contient un soliton, et, car la position du soliton est indéterminée, l’état fondamen- tal est N fois dégénéré. Dans la limite perturbative pour l’interaction d’Heisenberg, les fluctuations quantiques lèvent la dégénérescence et les N états se réorganisent dans une bande. Nous montrons qu’à l’ordre 2s, où s est la valeur de chaque spin dans la théorie des perturbations dégénérées, la bande est formée. L’état fondamental est dégénéré pour s entier, mais deux fois dégénéré pour s un demi-entier impair, comme prévu par le théorème de Kramer
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.