17 resultados para schwab and england scale

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire a pour objectif d’analyser la nature et l’ampleur des enjeux de sécurité dans l’Arctique contemporain en utilisant les outils offerts par la théorie de la sécurisation de l’École de Copenhague. Cinq secteurs de sécurité – militaire, politique, identitaire, environnemental et économique – et quatre variables – la géographie, l’identité, l’histoire et la politique – sont utilisées pour examiner les perceptions de sécurité, les sécurisations et les comportements stratégiques du Canada et de la Norvège. La 1re hypothèse avancée dans ce mémoire est la suivante : depuis 2005, au Canada et en Norvège, nous sommes en train d’assister à une sécurisation progressive des enjeux non militaires dans l’Arctique - politiques, identitaires, environnementaux et économiques - et les effets entre ces secteurs de sécurité ont d’importantes conséquences sur le secteur militaire, notamment au niveau de la multiplication de projets étatiques pour la plupart essentiellement militaires, ainsi qu’au niveau d’un déclenchement d’une sécurisation de leur intégrité territoriale ou du moins un accroissement de l’insécurité à son égard. La 2e hypothèse avancée est la suivante : les nouvelles perceptions de sécurité et les comportements stratégiques des États de la région engendrent de l’insécurité à l’intérieur des sociétés ainsi qu’une dégradation de la confiance entre les acteurs étatiques. Cela a pour effet d’augmenter la division politique dans l’Arctique et de ralentir toute construction régionale. Nous concluons, sur la base de nos études de cas, qu’au Canada, la souveraineté, la nordicité et l’intégrité territoriale sont perçues comme étant menacées. De plus, les sécurisations dans l’Arctique semblent faire partie d’un renouvellement stratégique global en matière de politique étrangère et de défense. En Norvège, la Russie est considérée comme l’acteur principal du High North et à partir de 2008, la relation russo-norvégienne a subi une sécurisation. Contrairement au Canada, la Norvège préfère le statu quo stratégique dans l’Arctique en privilégiant les trois éléments traditionnels de sa politique de défense et de sécurité - la dissuasion par l’OTAN, la gestion de la Russie par l’assurance, et l’amélioration des relations est-ouest.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La séquence culturelle régionale de l’Archaïque supérieur et terminal de la vallée de l’Outaouais n’est pas complétée, mais les variations stylistiques, technologiques et fonctionnelles des artéfacts sur le plan régional et local facilitent le découpage culturel. La reconstruction de la chaîne opératoire des haches, des herminettes et des gouges en pierre polie des sites Muldoon et Lamoureux, deux sites du sud-est ontarien, pourrait permettre de déceler une tradition technologique régionale à cheval entre l’Archaïque laurentien, l’Archaïque post-laurentien et d’autres courants des Grands Lacs. L’analyse des haches, des herminettes et des gouges des sites Muldoon et Lamoureux démontre l’utilisation massive de l’amphibolite. La moitié distale de ces outils est surtout polie et finement abrasée et la moitié proximale souvent éclatée, mais parfois abrasée. Ces éléments technologiques et l’industrie de pierre taillée démontrent des ressemblances et des différences avec les sites laurentiens de la région, et certains sites post-laurentiens du Québec et de l’Ontario méridional. Le matériel en pierre polie des sites Muldoon et Lamoureux démontre des liens technologiques vers l’Ouest tout en gardant un contact avec la sphère d’interaction postlaurentienne. La vallée de l’Outaouais semble alors prendre une place indépendante dans l’Archaïque supérieur, certaines continuités technologiques s’observent entre l’Archaïque laurentien et l’Archaïque post-laurentien.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La planification intégrée du développement urbain et des transports durables est aujourd’hui cruciale au double impératif d’une plus grande maîtrise des déplacements automobiles et d’une diminution de la « dépendance automobile », éléments essentiels au développement durable des grandes métropoles. La présente recherche visait l‘approfondissement des connaissances sur l‘évolution récente de la forme urbaine dans les trois régions métropolitaines canadiennes de Toronto, Montréal et Vancouver, sous l’angle particulier de l’intégration « forme urbaine – transports durables ». Notre stratégie de recherche a consisté en l’élaboration d’un cadre d‘analyse qui devait permettre une opérationnalisation complète du paradigme d‘aménagement à l‘étude ainsi qu’une évaluation de sa mise en œuvre. Ce cadre tire parti des opportunités analytiques qu‘offrent les systèmes d‘information géographique (SIG) ainsi que certains outils Internet courants de « visite virtuelle des lieux » tel que Google Earth. Il en est résulté une approche méthodologique originale, multidimensionnelle et multi-échelle. Son application a permis des analyses particulières de la forme urbaine pour chacune des trois régions cibles, structurées selon trois axes principaux : leur performance globale (autour de 2006), leur performance en périphérie métropolitaine ainsi que l’évolution de leur performance entre 2001 et 2006. De nos analyses comparatives, Vancouver se démarque avec des performances supérieures pour les trois axes, tout particulièrement pour l‘évolution de ses performances. Montréal arrive quant à elle troisième, en raison notamment de sa faible performance en périphérie. Globalement, les trois régions métropolitaines affichent de faibles niveaux d’intégration entre la forme urbaine et les réseaux de transport durable et souffrent d’une grande dépendance automobile structurelle, particulièrement en leur périphérie. Par ailleurs, en dépit d’objectifs de planification adéquats, les déficiences de leur forme urbaine et leurs progrès relativement modestes laissent présager une prédominance de la dépendance automobile qui perdurera au cours des prochaines années. Il nous apparaît primordial que tous les acteurs du domaine public fassent preuve d‘une plus grande « lucidité », voire maturité, face aux lourds constats exposant la difficile mise en œuvre de leurs objectifs ainsi que la dichotomie entre ce qui « se passe sur le terrain » et le contenu de leurs politiques. Une première étape obligée vers un raffinement des politiques et, peut-être, vers leur plus grande efficacité passe sans doute par la pleine reconnaissance des limites du paradigme d’aménagement actuel et de l‘immense défi que représente un inversement des tendances. Cela implique notamment une plus grande transparence en matière d‘évaluation des politiques ainsi que des efforts communs pour le développement et la diffusion de données de qualité dans les domaines connexes de la forme urbaine et des transports urbains, de meilleurs outils de monitoring, etc., qui pourraient aider à instituer une nouvelle synergie entre tous les acteurs impliqués tant dans la recherche urbaine, le développement urbain que les politiques d’aménagement et de transport. Le raffinement de notre propre approche méthodologique pourrait aussi bénéficier de telles avancées, approche qui constitue une des avenues possibles pour la poursuite de l‘exploration de l‘enjeu de l‘intégration « forme urbaine – transports durables » dans les régions métropolitaines canadiennes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce projet porte sur la reconstitution paléo-écologique d'un environnement forestier fossile retrouvé sur un plateau au sud-ouest de l'île Bylot. Il a comme objectifs 1) de préciser la chrono-stratigraphie du site; 2) d’établir une liste et une succession des différents taxons polliniques retrouvés dans les différentes unités stratigraphiques du site; 3) d’estimer leur âge et 4) d’en inférer des conditions climatiques (température et précipitations). Plusieurs coupes stratigraphiques ont été excavées puis échantillonnées afin de réaliser des analyses stratigraphiques, paléomagnétiques et polliniques. Un GPS différentiel fut également utilisé afin de caractériser à petite et grande échelle les unités stratigraphiques associées aux unités organiques fossiles. Les résultats des analyses granulométriques indiquent la séquence de dépôt suivante au sein d’une dépression dans la roche en place (schiste tertiaire) : 1) un diamicton glaciaire local ; 2) un sédiment limoneux d’origine glacio-lacustre ; 3) une unité organique tourbeuse; 4) une unité de type alluvial ; 5) un sédiment fluvio-glaciaire et 6) un diamicton glaciaire d’origine allochtone. Les analyses polliniques suggèrent une végétation similaire à celle présente près de la limite des arbres actuelle, environ 2000 km plus au sud. Les conditions climatiques plus humides et plus chaudes permettaient notamment la croissance du pin (Pinus type strobus et banksiana), de l’épinette (Picea cf. mariana), de l’aulne (type crispa et incana) et du mélèze (Larix, indifférencié). Enfin, les études paléomagnétiques et la présence d’espèces éteintes suggèrent un âge pour les dépôts organiques fossiles situé entre 2,14 et 2,15 Ma ou entre 2,581 et 3,040 Ma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude introduit un nouvel outil d’évaluation des troubles liés à la perception et la mémoire de la musique pour les enfants âgés entre six et huit ans. La batterie d’évaluation proposée est une adaptation de la batterie de Montréal de l'évaluation de l’amusie (MBEA) afin qu’elle puisse être utilisée chez les enfants, et ce, peu importe leur langue maternelle et leur culture. Dans l'expérience 1, la batterie, qui évalue les composantes musicales suivantes : la tonalité, le contour, l’intervalle, le rythme ainsi que la mémoire incidente, a été administrée auprès de 258 enfants à Montréal et 91 à Pékin. Dans l'expérience 2, une version abrégée de la batterie a été administrée à 86 enfants à Montréal. Les deux versions ont démontré une sensibilité aux différences individuelles et à la formation musicale. Il ne semble pas y avoir une influence de l'apprentissage de la lecture et de l’écriture sur les performances, mais plutôt un effet de la culture. Effectivement, les enfants qui ont comme langue maternelle le Mandarin (une langue tonale) ont obtenu de meilleurs résultats aux tâches de discrimination liées à la composante mélodique en comparaison à leurs homologues canadiens. Pour les deux groupes d’enfants, ceux qui ont été identifiés comme potentiellement amusiques ont principalement, mais pas exclusivement, des difficultés à percevoir de fines variations de hauteurs. Le caractère prédominant du déficit lié au traitement mélodique est moins distinctif avec la version abrégée. Par ailleurs, les résultats suggèrent différentes trajectoires de développement pour le traitement de la mélodie, du rythme et de la mémoire. De ce fait, la version de la MBEA adaptée à l’enfant, renommée la batterie de Montréal d'évaluation du potentiel musical (MBEMP), est un nouvel outil qui permet d’identifier les troubles liés au traitement musical chez les enfants tout en permettant d'examiner le développement typique et atypique des habiletés musicales et leur relation présumée à d'autres fonctions cognitives.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fonction paternelle d’ouverture sur le monde (FPOM) est un concept récent dans le domaine de la recherche sur l’engagement paternel. Les liens entre les pratiques parentales et les représentations mentales qui sont associées à cette forme d’engagement paternel, les comportements et le développement des enfants sont peu connus. Cette étude transversale avait pour objet l’atteinte de deux objectifs, d’abord vérifier les liens prédictifs entre les dimensions de la FPOM, le sentiment de compétence parentale (SCP) des pères et la qualité de la relation d’attachement père-enfant. Ensuite, examiner le rôle potentiellement modérateur du SCP des pères sur les liens significatifs entre les dimensions de la FPOM et la qualité de la relation d’attachement père-enfant. Les données proviennent d’un échantillon de 200 pères québécois francophones ayant répondu à un questionnaire autorévélé. Leur enfant était âgé entre 5 et 13 ans (1ere à 6e année du primaire). Des modèles de régression linéaire hiérarchique ont été utilisés pour vérifier l’influence de l’effet modérateur. Les résultats montrent des corrélations positives significatives entre les dimensions « stimulation à la persévérance » et « discipline et enseignement des responsabilités » de la FPOM et la qualité de la relation d’attachement père-enfant. Les dimensions de la stimulation à la prise de risque et à la compétition de la FPOM ne sont pas corrélées à la qualité de la relation d’attachement père-enfant. Contrairement aux résultats attendus, le SCP des pères n’a pas d’effet modérateur sur les liens significatifs obtenus, mais plutôt un effet additif se traduisant par la présence de relations transactionnelles entre les variables. Des analyses complémentaires révèlent un effet modérateur marginalement significatif du SCP des pères sur le lien entre la stimulation à la persévérance de la FPOM et l’échelle « plaisir et sécurité » du questionnaire sur la qualité de la relation d’attachement père-enfant (QQRAPE). La propension des pères à stimuler leur enfant à persévérer émerge plus particulièrement lors d’activités ludiques et elle contribue au développement du sentiment de confiance et de sécurité personnelle de leur enfant. Ces résultats sont discutés en regard de la littérature actuelle afin de mieux comprendre les liens entre les variables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le récepteur V2 (V2R) de la vasopressine est un récepteur couplé aux protéines G (RCPG), jouant un rôle fondamental dans le maintien de l’homéostasie hydrosodique. À l’instar de nombreux RCPGs, il est capable d’interagir avec plusieurs types de protéines G hétérotrimériques et possède des voies de signalisation peu explorées aux mécanismes mal compris. Ces voies non canoniques font l’objet des travaux exposés dans ce mémoire. Il s’agit d’explorer les caractéristiques et mécanismes de la signalisation de V2R via G12, et de la voie d’activation d’ERK 1/2 par transactivation du récepteur de l’insulin-like growth factor 1, IGF1R. Par des études de transfert d’énergie de résonance de bioluminescence (BRET), nous exposons la capacité de V2R à interagir avec la sous-unité Gα12 ainsi que la modulation de la conformation de l’hétérotrimère G12 par l’agoniste de V2R, l’arginine-vasopressine. Ces travaux dévoilent également la modulation de l’interaction entre Gα12 et son effecteur classique RhoA, suggérant un engagement de RhoA, ainsi que la potentialisation via Gα12 de la production d’AMP cyclique. À l’aide de diverses méthodes d’inhibition sélective, nos résultats précisent les mécanismes de la transactivation. Ils supportent notamment le rôle initiateur de l’activation de Src par V2R et l’absence d’implication des ligands connus d’IGF1R dans la transactivation. La métalloprotéase MMP 3 apparaît par ailleurs comme un bon candidat pour réguler la transactivation. Ce projet met en lumière des modes de signalisation peu explorés de V2R, dont l’implication physiologique et physiopathologique pourrait s’avérer significative, au-delà d’un apport fondamental dans la compréhension de la signalisation des RCPGs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comment s’adaptent des organisations lorsqu’elles font face à des changements qui les dépassent? De cette question a émergé une recherche voulant comprendre comment et pourquoi des organisations de santé décident d’adapter (ou non) leurs services aux besoins et aux caractéristiques des populations migrantes accueillies sur leur territoire. Pour y répondre, cette thèse s’est intéressée à la gouvernance multiniveaux appliquée aux organisations de santé fournissant des services à des populations migrantes. Dans un contexte de régionalisation de l’immigration, la dynamique du processus migratoire est de mieux en mieux documentée, mais les capacités organisationnelles d’adaptation le sont beaucoup moins. Nous avons réalisé une étude de cas multiples à l’aide d’entrevues semi-directives auprès d’acteurs provenant de deux CSSS montéregiens (région au sud de Montréal, Québec) et des paliers locaux, régionaux et nationaux. Les résultats de cette étude ont permis (1) de mettre en évidence les différents acteurs impliqués dans ce processus d’adaptation, dont des acteurs de connectivité; (2) de cerner huit leviers d’action, divisés en trois catégories de leviers : administratif, émergent et d’habilitation. La possible imbrication de ces trois catégories de leviers facilite l’apparition de structures de connectivité, légitimant ainsi l’adaptation de l’organisation; et (3) de montrer l’ambigüité de l’adaptation à travers des facteurs d’influence qui favorisent ou entravent le processus d’adaptation à plusieurs niveaux de la gouvernance. Cette thèse est construite autour de quatre articles. Le premier, de nature conceptuelle, permet de circonscrire les concepts d’adaptation et de gouvernance multiniveaux à travers la lentille des théories de la complexité. Nous campons ainsi notre sujet dans une problématique liée à la vulnérabilité et la migration tout en appréhendant l’adaptation du système et son opérationnalisation au niveau local. Il en ressort un cadre conceptuel avec six propositions de recherches. Le second article permet quant à lui de comprendre les jeux des acteurs au sein d’une organisation de santé et à travers son Environnement. Le rôle spécifique d’acteurs de connectivité y est révélé. C’est dans un troisième article que nous nous intéressons davantage aux différents leviers d’action, analysés selon trois catégories : administrative, émergente et d’habilitation. Les acteurs peuvent les solliciter afin de d’adapter leurs pratiques au contexte particulier de la prise en charge de patients migrants. Un passage des acteurs aux structures de connectivité est alors rendu possible via un espace : la gouvernance multiniveaux. Enfin, le quatrième et dernier article s’articule autour de l’analyse des différents facteurs pouvant influencer l’adaptation d’une organisation de santé, en lien avec son Environnement. Il en ressort principalement que les facteurs identifiés sont pour beaucoup des leviers d’action (cf. article3) qui à travers le temps, et par récursivité, deviennent des facteurs d’influence. De plus, le type d’interdépendance développé par les acteurs a tendance soit à façonner un Environnement « stable », laissant reposer les besoins d’adaptation sur les acteurs opérationnels; soit à façonner un Environnement plus « accidenté », reposant davantage sur des interactions diversifiées entre les acteurs d’une gouvernance multiniveaux. De cette adéquation avec l’Environnement à façonner découle l’ambigüité de s’adapter ou non pour une organisation.