633 resultados para Domaines chromosomiques de corégulation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les progrès réalisés dans les différentes aires culturelles, la globalisation des savoirs, les avancées dans la recherche scientifique et la volonté des chercheurs à partager leurs découvertes ont attribué à la traduction un rôle central dans le processus de la transmission des informations. Cependant, la diversité des domaines de connaissance a contraint les professionnels de la traduction à se spécialiser dans des domaines bien précis: sociologie, sciences, droit, etc. Dans ce mémoire, j'essaie de mettre en évidence les problématiques liées à la traduction de l'essai journalistique. Quels sont les défis que doit relever un traducteur afin de rendre intelligible dans la langue d'arrivée le texte qu'il a préalablement compris dans la langue source? Quels outils doit-il posséder pour contourner les problèmes de traduction qu'il rencontre? Telles sont les questions que je m'efforce de répondre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algues unicellulaires de la classe Chlorophyceae sont particulièrement étudiées pour leur potentiel économique dans la production de biocarburant. La première taxonomie de cette classe a été faite avec l’avènement de la microscopie électronique et par la suite avec des phylogénies moléculaires. Cette lignée se divise en deux groupes : OCC (Oedogoniales + Chaetophorales + Chaetopeltidales) et CS (Chlamydomonadales + Sphaeropleales). Il existe de profondes incertitudes sur les positions phylogénétiques des organismes à la base du groupe CS. Afin de renforcer la phylogénie de ces organismes, les génomes chloroplastiques de cinq algues basales ont été séquencés à l’aide de la technologie de nouvelle génération 454 et assemblés de novo. Une analyse phylogénétique de 69 séquences de protéines a permis de montrer que trois des cinq organismes classés dans l’ordre Chlamydomonadales par la littérature actuelle sont en fait basaux dans l’ordre Sphaeropleales. Ce reclassement phylogénétique implique de nouvelles hypothèses sur l’évolution des corps flagellaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les matériaux mésoporeux à base de silice sont des plateformes polyvalentes qui offrent une réponse aux besoins de domaines variés comme l’environnement, la santé et les énergies. La fonctionnalisation avec des groupements organiques en fait des matériaux hybrides qu’il est aisé d’orienter vers une application spécifique. Ainsi, afin de fournir une alternative aux procédés industriels, dommageables pour l’environnement actuellement utilisés pour l’extraction et la purification des terres rares, à savoir l’extraction liquide-liquide (ELL) majoritairement, les silices mésoporeuses ont été sollicitées à titre d’adsorbant dans l’extraction sur phase solide. Cette dernière, en opposition à l’ELL, présente de nombreux avantages dont, la suppression des solvants organiques, le contrôle de la sélectivité envers et parmi le groupe des éléments de terres rares (ÉTR) à travers l’ancrage du ligand sur un support solide et la possibilité de réutiliser plusieurs fois l’adsorbant. Les ÉTR sont des métaux qui participent à la transition vers des technologies moins coûteuses en énergie, il est donc primordial de rendre leurs procédés d’extraction plus verts. Dans le cadre de ce travail, différents types de silices ordonnées mésoporeuses, MCM-41, SBA-15 et SBA-16, ont été synthétisées, fonctionnalisées avec un ligand approprié, et leurs comportements vis à vis de ces éléments, comparés. Ces matériaux ont de nombreux points communs mais certaines caractéristiques les différencient néanmoins : la taille et la géométrie des pores, la connexion entre les pores, l’épaisseur des parois, l’accessibilité aux pores ou encore la diffusion des liquides ou gaz dans la matrice. C’est pourquoi, le but de cette étude est d’élucider l’impact de ces diverses propriétés sur l’adsorption sélective des ÉTR en condition statique et dynamique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Cité de Dieu a été rédigée dans une perspective polémique vis-à-vis les païens. La prise de Rome, en 410, a entraîné en Afrique du Nord la venue d’une élite cultivée, revivaliste et admirative du vieux polythéisme. Contre cette mouvance nostalgique, tributaire des anciens majoritairement sur le plan intellectuel et livresque, Augustin s’en prend à la bibliothèque des nouveaux arrivants. La Cité de Dieu peut, le cas échéant, être lue par la négative, c’est-à-dire par le biais de la critique qu’élabore Augustin de trois auteurs choisis, Varron, Cicéron et Salluste, qui résument et représentent conjointement l’essence de la culture classique. Tant chez les païens que chez l’évêque d’Hippone – leur détracteur –, Varron incarne la fine pointe de la théologie romano-hellénistique, Salluste est celui qui a mené à sa perfection la discipline de l’histoire, Cicéron a écrit le parachèvement des oeuvres sur la République, et chacun préconise sa structure idéologique propre, les trois domaines formant pourtant un ensemble systémique. Tout en louant ses illustres prédécesseurs, Augustin leur porte une critique générale et c’est à cette critique que seront consacrées nos analyses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'identité et la réactivité cellulaires sont établies, maintenues et modulées grâce à l'orchestration de programmes transcriptionnels spécifiques. Les éléments régulateurs, des régions particulières de la chromatine responsables de l'activation ou de la répression des gènes, sont au coeur de cette opération. Ces dernières années, de nombreuses études ont révélé le rôle central des « enhancers » dans ce processus. En effet, des centaines de milliers « enhancers » seraient éparpillés dans le génome humain, majoritairement dans sa portion non-codante, et contrairement au promoteur, leur activation varierait selon le type ou l'état cellulaire ou en réponse à une stimulation physiologique, pathologique ou environnementale. Les « enhancers » sont, en quelque sorte, des carrefours où transitent une multitude de protéines régulées par les signaux intra- et extra-cellulaires et un dialogue s'établit entre ces diverses protéines et la chromatine. L'identification des « enhancers ainsi qu'une compréhension de leur mode de fonctionnement sont donc cruciales, tant au plan fondamental que clinique. La chromatine joue un rôle indéniable dans l'activité des éléments régulateurs, tant par sa composition que par sa structure, en régulant, entre autres, l'accessibilité de l'ADN. En effet, l'ADN des régions régulatrices est bien souvent masqué par un nucléosome occlusif, lequel doit être déplacé ou évincé afin de permettre la liaison des protéines régulatrices, notamment les facteurs de transcription (FTs). Toutefois, la contribution de la composition de la chromatine à ce processus reste incomprise. Le variant d'histone H2A.Z a été identifié comme une composante de la chromatine aux régions accessibles, dont des « enhancers » potentiels. Toutefois son rôle y est inconnu, bien que des études récentes suggèrent qu'il pourrait jouer un rôle important dans la structure de la chromatine à ces régions. Par ailleurs, un lien étroit existe entre H2A.Z et la voie de signalisation des oestrogènes (notamment la 17-[beta]-estradiol (E2)). Ainsi, H2A.Z est essentiel à l'expression de plusieurs gènes cibles de l'E2. Les effets de l'E2 sont en partie exercés par un FT, le récepteur alpha des oestrogènes (ER[alpha]), lequel se lie à l'ADN suite à son activation, et ce majoritairement à des « enhancers », et permet l'établissement d'un programme transcriptionnel spécifique. Cette thèse vise à définir le rôle d'H2A.Z aux « enhancers », et plus particulièrement son influence sur l'organisation des nucléosomes aux « enhancers » liés par ER[alpha]. D'abord, mes travaux effectués à l'échelle du génome ont démontré qu'H2A.Z n'est présent qu'à certains ER[alpha]-« enhancers » actifs. Cette particularité a fait en sorte que nous avons pu comparer directement les « enhancers » actifs occupés par H2A.Z à ceux non-occupés, afin de mettre en évidence sa relation à l'environnement chromatinien. Étonnamment, il est apparu qu'H2A.Z n'introduit pas une organisation unique ou particulière des nucléosomes aux « enhancers ». Par ailleurs, nos résultats montrent qu'H2A.Z joue un rôle crucial dans la régulation de l'activité des « enhancers ». En effet, nous avons observé que suite à leur activation par l'E2, les « enhancers » occupés par H2A.Z recrutent l'ARN polymérase II (ARNPII) et produisent un transcrit. Ils recrutent également RAD21, une composante du complexe cohésine impliqué, entre autres, dans des interactions chromosomiques entre « enhancers » et promoteurs. De façon intéressante, nous avons mis en évidence que ces trois évènements, connus pour leur importance dans l'activité des « enhancers », sont dépendants d'H2A.Z. Ainsi, la présence d'H2A.Z à l' « enhancer » pourrait permettre un environnement chromatinien favorable à trois aspects clés de l'activité des « enhancers » : la présence de l'ARNPII, la transcription et la formation d'une boucle d'interaction, et par la suite, de par la proximité « enhancer »-promoteur ainsi créée, augmenter la concentration d'ARNPII à proximité du promoteur favorisant l'expression du gène cible. Un tel rôle central d'H2A.Z dans l'activité d' « enhancers » spécifiques pourrait participer à un mécanisme épigénétique ciblé de la régulation de l'expression des gènes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sources laser à large bande possédant les caractéristiques requises pour émettre sur la plage spectrale correspondant à la seconde fenêtre de transmission atmosphérique (3 à 5 μm) exercent un attrait considérable pour divers domaines tels que la télédétection de polluants atmosphériques et les contremesures infrarouges. Les supercontinua générés à l’intérieur de fibres optiques représentent une option intéressante pour réaliser ce type de sources laser. En effet, ils possèdent une intensité élevée, un large contenu spectral, une excellente directionnalité de faisceau, ainsi qu’un bon potentiel pour constituer des sources lumineuses compactes et robustes. Toutefois, la génération d’un tel supercontinuum implique certains défis à relever sur le plan de la conception des fibres optiques employées. En fait, ces fibres optiques doivent présenter de faibles pertes de propagation sur la plage spectrale de 3 à 5 μm, posséder un paramètre de non-linéarité élevé et permettre le pompage en régime anomal de dispersion à des longueurs d’onde pour lesquelles des sources laser compactes sont offertes commercialement. En matière de robustesse, ces fibres doivent également démontrer de bonnes propriétés mécaniques ainsi qu’une stabilité chimique appropriée vis-à-vis de la corrosion causée par l’humidité. Dans le cadre de cette thèse, un nouveau type de fibres composites à saut d’indice fortement contrasté a été développé pour atteindre ces objectifs de génération de supercontinuum. Ce type de fibres combine respectivement un verre de tellurite et un verre de germanate pour son coeur et sa gaine permettant ainsi d’atteindre une différence d’indice de réfraction d’environ 0.3 entre ces deux dernières structures. Grâce à cet important saut d’indice, ces fibres peuvent fortement confiner les modes optiques à l’intérieur de leur coeur, ce qui leur donne la possibilité d’atteindre un niveau élevé de non-linéarité et d’optimiser leurs caractéristiques de dispersion chromatique pour la génération du supercontinuum. D’autre part, leur section transversale toute solide leur confère aussi une meilleure stabilité environnementale comparativement à celle démontrée par les fibres optiques microstructurées à base de verres d’oxydes de métaux lourds, de verres de chalcogénure et de verres fluorés. Toutefois, leur fabrication nécessite l’appariement de verres dont les propriétés thermomécaniques concordent suffisamment ensemble pour permettre leur fibrage. Les travaux effectués ici démontrent la production de fibres optiques composites et leur potentiel pour la génération du supercontinuum dans l’infrarouge moyen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acceptabilité sociale prend de plus en plus de place dans la sphère publique depuis la dernière décennie et ce concept semble même faire la pluie et le beau temps lorsqu’un promoteur tente de mettre en œuvre un projet. Même si les problématiques d’acceptabilité sociale sont rencontrées dans tous les domaines allant de la construction de condominium à l’implantation de projets miniers, les promoteurs du secteur énergétique semblent avoir davantage de difficultés à l’obtenir. L’objectif de cet essai est donc de déterminer les éléments dans la démarche d’acceptabilité sociale des promoteurs de ce secteur qui font en sorte que leurs projets soient si mal acceptés. Une analyse a été réalisée en étudiant des projets bien acceptés socialement et d’autres comportant des lacunes au niveau de l’acceptabilité sociale, dans chacun des secteurs suivants : minier, industriel et énergétique. Ainsi, les bonnes pratiques relevées pourront servir d’exemple pour les promoteurs de projets énergétiques aux prises avec des problèmes dans ce domaine. Les pratiques de chaque secteur ont été évaluées à l’aide de critères tirés et adaptés de l’article 6 de la Loi sur le développement durable. Une note a ensuite été attribuée à chacun des critères. L’analyse a permis de démontrer qu’effectivement, le secteur de l’énergie accuse un retard sur les secteurs miniers et industriels, qui ont tous deux trouvé des moyens efficaces pour acquérir et maintenir l’acceptabilité sociale. Les critères nécessitant une amélioration imminente sont les suivants : la responsabilité environnementale, la santé-sécurité, la participation du public et l’internalisation des coûts. Des recommandations ont alors été formulées dans l’optique de favoriser l’acceptabilité sociale des projets énergétiques. Les promoteurs auraient avantage à se doter d’un cadre de référence en matière de responsabilité sociale et environnementale, à faire preuve de transparence ainsi qu’à produire un rapport de développement durable. Il serait également bénéfique pour le promoteur d’évaluer les impacts en collaborant avec les acteurs du milieu et de démontrer sa capacité à intervenir en cas d’urgence. Les démarches de consultation publiques devraient être bonifiées en initiant le processus dès la phase de préfaisabilité et en choisissant un porte-parole crédible et présent dans la communauté d’accueil. L’internalisation des coûts devrait aussi être effectuée de manière plus réaliste et exhaustive. En somme, il se peut qu’un projet ne soit jamais acceptable par la société d’accueil en dépit de tous les efforts déployés par le promoteur, mais une bonne image vaut son pesant d’or.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d’étudiantes et étudiants participant à une mobilité internationale étudiante a considérablement augmenté au cours des dernières années. Dans le contexte de la mondialisation, les activités d’internationalisation sont devenues une priorité des établissements d’enseignement (Association des collèges communautaires du Canada, 2010a). Le recrutement des étudiantes et étudiants étrangers apporte plusieurs avantages au pays et à l’établissement d’accueil (Ibid.). De ce fait, pour favoriser ce recrutement et la mobilité internationale étudiante, les gouvernements ont mis en place des politiques d’immigration et les universités ont signé différentes alliances et accords bilatéraux entre elles. Toutefois, si les mobilités se font principalement vers les pays industrialisés (Lerot, 2001), le Canada est en retard sur sa proportion de personnes étudiantes effectuant une mobilité internationale étudiante dans ses collèges et universités (Association des collèges communautaires du Canada, 2010b). De même que le Québec qui voit sa proportion de l’effectif total de ses étudiantes et étudiants étrangers diminuer, alors que celle-ci augmente dans les autres régions du Canada (McMullen et Élias, 2011). À cet effet, les universitaires représentent la majorité des étudiantes et étudiants étrangers au Québec (Gouvernement du Québec, 2014a), mais la proportion globale d’universitaires internationaux diffère selon le type de région. En ce sens, celle-ci est la moins élevée dans les régions intermédiaires et la plus élevée dans les régions centrales (Gouvernement du Québec, 2013, 2014b, 2015), alors que ces régions sont toutes deux des grands centres de population. Ainsi, pour contribuer à mieux saisir ce que recouvre cette moins grande attractivité des régions intermédiaires, la question générale de recherche est : quels sont les motifs de choix, à chacune des dimensions du choix du lieu d’étude, d’effectuer une mobilité internationale étudiante dans une université située en région intermédiaire au Québec ? Pour répondre à cette question, et en se basant sur un cadre d’analyse à deux dimensions et sur l’état de connaissances à ce sujet, quatre objectifs spécifiques sont définis : 1) décrire les motifs de migration pour études, 2) examiner les associations entre les motifs de choix dans chaque catégorie pour y déceler d’éventuels regroupements sous-jacents, 3) examiner les associations entre ces regroupements de motifs et les caractéristiques des personnes étudiantes (âge, sexe, pays d’origine, domaine d’études, etc.), 4) déterminer si le choix de l’établissement d’accueil se fait avant ou après le choix du pays d’accueil. Pour y répondre, une recherche quantitative descriptive corrélationnelle, utilisant une analyse d’interdépendance (analyse factorielle), est menée, à l’aide d’un questionnaire anonyme disponible en ligne qui intègre plusieurs échelles de mesure, auprès des universitaires internationaux inscrits pour la première fois à l’Université de Sherbrooke à l’automne 2014. Au total, l’échantillon se compose de 141 universitaires internationaux. Ils sont âgés de 17 à 29 ans, proviennent des différents domaines, cycles et régimes d’études et il y a autant d’hommes que de femmes qui composent l’échantillon. De plus, les trois quarts de l’échantillon sont originaires de la France. L’analyse des données recueillies dans le questionnaire montre que l’importance accordée aux items du questionnaire représentant les motifs de migration pour études varie selon les dimensions du choix du lieu d’étude et qu’il existe des écarts dans les résultats. Synthétisés en facteurs, les résultats font ressortir trois facteurs liés au pays d’origine qui interviennent dans le choix d’étudier à l’international : 1) PO_La pauvreté de l’enseignement, 2) PO_Les contextes politiques et économiques, 3) PO_Les politiques d’éducation, et quatre facteurs personnels qui interviennent dans ce choix : 1) PER_le désir d’exploration, 2) PER_Le désir de changement, 3) PER_Les considérations familiales, 4) PER_Les aspirations personnelles et professionnelles. Aussi, il y a sept facteurs de choix du pays d’accueil : 1) PA_Les perspectives d’avenir, 2) PA_L’information disponible, 3) PA_Le dépaysement, 4) PA_Les considérations culturelles, 5) PA_Les liens au pays d’origine et la sécurité, 6) PA_Le cadre financier et environnemental, 7) PA_Les relations sociales. Puis, les résultats décrivent quatre facteurs de choix de l’établissement d’accueil : 1) EA_Les services de l’établissement, 2) EA_La qualité de la formation offerte, 3) EA_L’accessibilité et l’ouverture, 4) EA_Les possibilités d’emploi et les partenariats. Parmi l’ensemble de ces facteurs, seul deux d’entre eux, PER_Le désir d’exploration et PA_Le dépaysement, ont en moyenne une importance élevée dans le choix des universitaires internationaux d’étudier en région intermédiaire au Québec, alors que les facteurs liés au pays d’origine ont quant à eux, de manière générale, peu ou pas d’influence. Toutefois, il existe des écarts parmi les personnes répondantes à l’étude et les résultats montrent la présence d’associations entre certains facteurs et des caractéristiques des personnes étudiantes, soit la nature de l’expérience à international, la durée du séjour et la provenance des répondantes et répondants selon la typologie économique et sociale des pays du monde, ce qui laisse supposer la présence de groupe parmi les personnes répondantes à l’étude. Ainsi, les différents résultats de l’étude pourraient servir de guide aux conseillers et conseillères d’orientation du Québec, intervenant auprès des universitaires internationaux en région intermédiaire dans cette province, ainsi qu’aux universités situées dans ces régions. En effet, ces résultats pourraient influencer la pratique des conseillers et conseillères d’orientation du Québec quant au principal défi des universitaires internationaux, et les universités pourraient adapter leurs stratégies de recrutement selon l’importance accordée aux différents facteurs de migration pour études et ainsi attirer un plus grand nombre d’étudiantes et étudiants étrangers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.