155 resultados para Blocs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the course of the later Middle Ages nearly half the landmass of the British Isles fell under the control of a handful of Gaelic dynasties in Ireland and Scotland. The impact of this profound geopolitical recasting of much of the Atlantic Archipelago has however, received very little scholarly attention. Instead, historians have tended to view events within this expanding Gaelic world, or Gàidhealtachd, as peripheral to the political development of the British Isles and the course of Anglo-Scottish relations during the later Medieval period. Drawing upon a comprehensive range of sources from Ireland, Scotland, and England, as well as significant archival research, this thesis challenges the concept of the so-called 'Celtic fringe' and illustrates how developments within the Gàidhealtachd impacted upon the course of 'British' politics during the period c.1350-1513. The thesis centres on an examination of how two competing Gaelic alliance systems came to dominate much of the Gàidhealtachd from the late fourteenth century through to the early 1500s. The first of these alliance blocs was controlled chiefly by the O'Neills of Tyrone, the O'Briens of Thomond, and MacDonalds of the Hebrides; in the other network the O'Donnells of Tyrconnell, the Burkes of Mayo and the Campbells of Argyll held sway. By tracing the interconnectivity of the lordships in each respective network, the thesis investigates how these alliance systems became a durable force not only within the Gàidhealtachd but also on the broader 'British' stage. The thesis is structured in a manner that makes the intricate, lineage-based world of the Gàidhealtachd more accessible. Each chapter shifts between the various regions of the Gaelic world and examines how developments in one region impacted upon corresponding territory. Ultimately, this provides historians with a new model for exploring what has previously been a majorly neglected area of Irish and British history.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous abordons le contrôle moteur du mouvement du coude à travers deux approches expérimentales : une première étude psychophysique a été effectuée chez les sujets humains, et une seconde implique des enregistrements neurophysiologiques chez le singe. Nous avons recensé plusieurs aspects non résolus jusqu’à présent dans l’apprentissage moteur, particulièrement concernant l’interférence survenant lors de l’adaptation à deux ou plusieurs champs de force anti-corrélés. Nous avons conçu un paradigme où des stimuli de couleur aident les sujets à prédire la nature du champ de force externe actuel avant qu’ils ne l’expérimentent physiquement durant des mouvements d’atteinte. Ces connaissances contextuelles faciliteraient l’adaptation à des champs de forces en diminuant l’interférence. Selon le modèle computationnel de l’apprentissage moteur MOSAIC (MOdular Selection And Identification model for Control), les stimuli de couleur aident les sujets à former « un modèle interne » de chaque champ de forces, à s’en rappeler et à faire la transition entre deux champs de force différents, sans interférence. Dans l’expérience psychophysique, quatre groupes de sujets humains ont exécuté des mouvements de flexion/extension du coude contre deux champs de forces. Chaque force visqueuse était associée à une couleur de l’écran de l’ordinateur et les deux forces étaient anti-corrélées : une force résistante (Vr) a été associée à la couleur rouge de l’écran et l’autre, assistante (Va), à la couleur verte de l’écran. Les deux premiers groupes de sujets étaient des groupes témoins : la couleur de l’écran changeait à chaque bloc de 4 essais, tandis que le champ de force ne changeait pas. Les sujets du groupe témoin Va ne rencontraient que la force assistante Va et les sujets du groupe témoin Vr performaient leurs mouvements uniquement contre une force résistante Vr. Ainsi, dans ces deux groupes témoins, les stimuli de couleur n’étaient pas pertinents pour adapter le mouvement et les sujets ne s’adaptaient qu’à une seule force (Va ou Vr). Dans les deux groupes expérimentaux, cependant, les sujets expérimentaient deux champs de forces différents dans les différents blocs d’essais (4 par bloc), associés à ces couleurs. Dans le premier groupe expérimental (groupe « indice certain », IC), la relation entre le champ de force et le stimulus (couleur de l’écran) était constante. La couleur rouge signalait toujours la force Vr tandis que la force Va était signalée par la couleur verte. L’adaptation aux deux forces anti-corrélées pour le groupe IC s’est avérée significative au cours des 10 jours d’entraînement et leurs mouvements étaient presque aussi bien ajustés que ceux des deux groupes témoins qui n’avaient expérimenté qu’une seule des deux forces. De plus, les sujets du groupe IC ont rapidement démontré des changements adaptatifs prédictifs dans leurs sorties motrices à chaque changement de couleur de l’écran, et ceci même durant leur première journée d’entraînement. Ceci démontre qu’ils pouvaient utiliser les stimuli de couleur afin de se rappeler de la commande motrice adéquate. Dans le deuxième groupe expérimental, la couleur de l’écran changeait régulièrement de vert à rouge à chaque transition de blocs d’essais, mais le changement des champs de forces était randomisé par rapport aux changements de couleur (groupe « indice-incertain », II). Ces sujets ont pris plus de temps à s’adapter aux champs de forces que les 3 autres groupes et ne pouvaient pas utiliser les stimuli de couleurs, qui n’étaient pas fiables puisque non systématiquement reliés aux champs de forces, pour faire des changements prédictifs dans leurs sorties motrices. Toutefois, tous les sujets de ce groupe ont développé une stratégie ingénieuse leur permettant d’émettre une réponse motrice « par défaut » afin de palper ou de sentir le type de la force qu’ils allaient rencontrer dans le premier essai de chaque bloc, à chaque changement de couleur. En effet, ils utilisaient la rétroaction proprioceptive liée à la nature du champ de force afin de prédire la sortie motrice appropriée pour les essais qui suivent, jusqu’au prochain changement de couleur d’écran qui signifiait la possibilité de changement de force. Cette stratégie était efficace puisque la force demeurait la même dans chaque bloc, pendant lequel la couleur de l’écran restait inchangée. Cette étude a démontré que les sujets du groupe II étaient capables d’utiliser les stimuli de couleur pour extraire des informations implicites et explicites nécessaires à la réalisation des mouvements, et qu’ils pouvaient utiliser ces informations pour diminuer l’interférence lors de l’adaptation aux forces anti-corrélées. Les résultats de cette première étude nous ont encouragés à étudier les mécanismes permettant aux sujets de se rappeler d’habiletés motrices multiples jumelées à des stimuli contextuels de couleur. Dans le cadre de notre deuxième étude, nos expériences ont été effectuées au niveau neuronal chez le singe. Notre but était alors d’élucider à quel point les neurones du cortex moteur primaire (M1) peuvent contribuer à la compensation d’un large éventail de différentes forces externes durant un mouvement de flexion/extension du coude. Par cette étude, nous avons testé l’hypothèse liée au modèle MOSAIC, selon laquelle il existe plusieurs modules contrôleurs dans le cervelet qui peuvent prédire chaque contexte et produire un signal de sortie motrice approprié pour un nombre restreint de conditions. Selon ce modèle, les neurones de M1 recevraient des entrées de la part de plusieurs contrôleurs cérébelleux spécialisés et montreraient ensuite une modulation appropriée de la réponse pour une large variété de conditions. Nous avons entraîné deux singes à adapter leurs mouvements de flexion/extension du coude dans le cadre de 5 champs de force différents : un champ nul ne présentant aucune perturbation, deux forces visqueuses anti-corrélées (assistante et résistante) qui dépendaient de la vitesse du mouvement et qui ressemblaient à celles utilisées dans notre étude psychophysique chez l’homme, une force élastique résistante qui dépendait de la position de l’articulation du coude et, finalement, un champ viscoélastique comportant une sommation linéaire de la force élastique et de la force visqueuse. Chaque champ de force était couplé à une couleur d’écran de l’ordinateur, donc nous avions un total de 5 couleurs différentes associées chacune à un champ de force (relation fixe). Les singes étaient bien adaptés aux 5 conditions de champs de forces et utilisaient les stimuli contextuels de couleur pour se rappeler de la sortie motrice appropriée au contexte de forces associé à chaque couleur, prédisant ainsi leur sortie motrice avant de sentir les effets du champ de force. Les enregistrements d’EMG ont permis d’éliminer la possibilité de co-contractions sous-tendant ces adaptations, étant donné que le patron des EMG était approprié pour compenser chaque condition de champ de force. En parallèle, les neurones de M1 ont montré des changements systématiques dans leurs activités, sur le plan unitaire et populationnel, dans chaque condition de champ de force, signalant les changements requis dans la direction, l’amplitude et le décours temporel de la sortie de force musculaire nécessaire pour compenser les 5 conditions de champs de force. Les changements dans le patron de réponse pour chaque champ de force étaient assez cohérents entre les divers neurones de M1, ce qui suggère que la plupart des neurones de M1 contribuent à la compensation de toutes les conditions de champs de force, conformément aux prédictions du modèle MOSAIC. Aussi, cette modulation de l’activité neuronale ne supporte pas l’hypothèse d’une organisation fortement modulaire de M1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Previous research claims that there has been a narrowing of distance between the Swedish political parties. Typically, such research into political distance has primarily focused on studying voters rather than the political parties themselves. In this article, the author conducts a longitudinal analysis of Comparative Manifesto Project data to determine if, and to what extent, the political parties have converged ideologically on a Left-Right continuum in the period 1991-2010. After first unraveling the concept of political distance, the author moves on to explain why the ideological dispersion of political parties is an important and consequential characteristic within party systems. Furthermore, the author argues that the Left-Right ideological scale continues to be a highly useful model with which to conceptualize and study this characteristic. The author then discusses the methodological approach and explains why quantitative manifesto data, often overlooked in favor of voter interview data, is deemed a valid and reliable material for measuring the ideological positions of political parties. The findings are that there indeed have been over all tendencies of ideological convergence between the blocs and that, in terms of how political parties are dispersed on a Left- Right ideological continuum, by 2010, the Swedish party system (the Sweden Democrats excluded) had become much less polarized than it had been in 1991.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le byssus est un amas de fibres que les moules produisent afin de s’ancrer aux surfaces immergées sous l’eau. Ces fibres sont pourvues de propriétés mécaniques impressionnantes combinant rigidité, élasticité et ténacité élevées. De plus, elles possèdent un comportement d’auto-guérison de leurs propriétés mécaniques en fonction du temps lorsque la contrainte initialement appliquée est retirée. Les propriétés mécaniques de ces fibres sont le résultat de l’agencement hiérarchique de protéines de type copolymère blocs riches en collagène et de la présence de métaux formant des liens sacrificiels réversibles avec certains acides aminés comme les DOPA et les histidines. Bien que cette fibre soit très intéressante pour la production de matériaux grâce à son contenu élevé en collagène potentiellement biocompatible, cette ressource naturelle est traitée comme un déchet par les mytiliculteurs. L’objectif de cette thèse était de valoriser cette fibre en extrayant les protéines pour générer une nouvelle classe de matériaux biomimétiques. Un hydrolysat de protéines de byssus (BPH) riche en acides aminés chargés, i.e. ~30 % mol, et permettant de former des films a pu être généré. Lorsque solubilisé à pH 10.5, le BPH forme un hydrogel contenant des structures en triple hélice de collagène et des feuillets β anti-parallèles intra- et inter-moléculaires. Suite à l’évaporation de l’eau, le film de BPH résultant est insoluble en milieu aqueux à cause des structures secondaires très stables agissant comme points de réticulation effectifs. Les propriétés mécaniques des films de BPH sont modulables en fonction du pH. Au point isoélectrique (pI = 4.5), les interactions électrostatiques entre les charges opposées agissent comme points de réticulation et augmentent la rigidité des films et leur contrainte à la rupture sans affecter la déformation à la rupture. À pH plus élevé ou plus bas que le pI, les performances mécaniques des films sont plus faibles à cause de la répulsion entre les groupements fonctionnels de même charge qui interagissent plutôt avec les molécules d’eau et causent le gonflement de la matrice protéique des films. Le BPH contenant un nombre élevé d’acides aminés chargés et réactifs, nous avons pu réticuler les films de manière covalente à l’aide d’EDC ou de glutaraldéhyde. Les propriétés mécaniques des films sont modulables en fonction de la concentration d’EDC utilisée lors de la réticulation ou en employant du glutaraldéhyde comme agent réticulant. Les films sont à la fois plus rigides et plus forts avec un degré de réticulation élevé, mais perdent leur extensibilité à mesure que les segments libres de s’étirer lors d’une traction deviennent entravés par les points de réticulation. La réticulation augmente également la résistance à la dégradation enzymatique par la collagénase, les films les plus fortement réticulés lui étant pratiquement insensibles. La spectroscopie infrarouge montre enfin que la réticulation entraîne une transition de feuillets β anti-parallèles inter-moléculaires vers des structures de type hélices de collagène/PPII hydratées. Des liens sacrificiels ont été formés dans les films de BPH par traitement au pI et/ou avec différents métaux, i.e. Na+, Ca2+, Fe3+, afin de moduler les propriétés mécaniques statiques et d’évaluer le rôle de ces traitements sur le comportement d’auto-guérison lors de tests mécaniques cycliques avec différents temps de repos. Plus la valence des ions métalliques ajoutés augmente, plus les propriétés mécaniques statiques affichent un module, une contrainte à la rupture et une ténacité élevés sans toutefois affecter la déformation à la rupture, confirmant la formation de liens sacrificiels. Les tests mécaniques cycliques montrent que les traitements au pI ou avec Ca2+ créent des liens sacrificiels ioniques réversibles qui mènent à un processus d’auto-guérison des performances mécaniques dépendant du pH. L’ajout de Fe3+ à différentes concentrations module les performances mécaniques sur un plus large intervalle et la nature plus covalente de son interaction avec les acides aminés permet d’atteindre des valeurs nettement plus élevées que les autres traitements étudiés. Le Fe3+ permet aussi la formation de liens sacrificiels réversibles menant à l’auto-guérison des propriétés mécaniques. Les spectroscopies Raman et infrarouge confirment que le fer crée des liaisons avec plusieurs acides aminés, dont les histidines et les DOPA. Les résultats dans leur ensemble démontrent que les films de BPH sont des hydrogels biomimétiques du byssus qui peuvent être traités ou réticulés de différentes façons afin de moduler leurs performances mécaniques. Ils pourraient ainsi servir de matrices pour des applications potentielles dans le domaine pharmaceutique ou en ingénierie tissulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d’août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sténose aortique est la cardiopathie valvulaire la plus fréquente retrouvée chez les patients agés. Suite à l’apparition des symptômes, la survie des patients diminue de façon drastique en l’absence d’un remplacement valvulaire aortique. Cependant, une proportion considérable de ces patients n’est pas opérée en raison d’un risque chirurgical élevé, l’âge étant l’une des principales raisons de refus d’un remplacement valvulaire aortique chirurgical. Ce défaut dans la prise en charge des ces patients a favorisé le développement du remplacement valvulaire aortique par cathéter où implantation valvulaire aortique par cathèter (TAVR ou TAVI), qui a représenté une révolution dans le traitement de la sténose aortique. Cette intervention est actuellement un traitement de routine chez les patients à haut risque chirurgical atteints d’une sténose aortique, même si la chirurgie cardiaque n’est pas contre-indiquée. Ces dernières années ont vu un changement de profil des candidats potentiels vers une population à plus faible risque. Cependant, plusieurs préoccupations demeurent. L’une des plus importantes est la survenue des arythmies et de troubles de conduction, notamment le bloc de branche gauche et le bloc auriculo-ventriculaire, qui sont des complications fréquemment associées au TAVR. Malgré l’évolution de la technologie et le développement de nouveaux dispositifs réduisant le taux global de complications, aucune amélioration n’a pas été intégrée pour prévenir l’apparition de telles complications. De plus, l’utilisation de certains dispositifs de nouvelle génération semble être associée à un risque accru de troubles de conduction, et par conséquent, l’incidence de ces complications pourrait augmenter dans le futur. Cependant, L’impact et l’évolution de ces complications sont inconnus. Ce travail de recherche évalue l’incidence et l’évolution des troubles de conduction suite au TAVR et l’impact des blocs de branche gauche de novo et de l’implantation d’un pacemaker sur les résultats cliniques et échocardiographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, les drains installés dans les sols sableux-limoneux sont sensibles au colmatage par ensablement et/ou par ocre de fer. Dans le passé, les drains avec des pertuis inférieurs à 2 mm étaient utilisés au Québec avec un filtre tissé de 110 microns ou un filtre tricoté de 450 microns. Récemment, des drains avec des pertuis supérieurs à 2 mm ainsi qu’un filtre de 250 microns ont été introduits sur le marché mais n’ont jamais été testés. Le projet avait pour objectif de déterminer les vitesses auxquelles se feront l’ensablement et le colmatage ferrique pour différentes combinaisons de drains (pertuis de 1,8 mm et de 3 mm) et de filtres (110 μm, 250 μm et 450 μm) dans un sol sableux à Bécancour. Un dispositif expérimental en blocs complets (3) aléatoires a été utilisé. Les débits ont été mesurés à la sortie des drains de chaque parcelle et les hauteurs des nappes ont été mesurées avec un bulleur dans des puits d’observation. Le suivi du pH, du potentiel d’oxydoréduction et du contenu en Fe2+ a été réalisé dans l’eau de la nappe et celle des drains. Les drains excavés 13 mois après leur installation ne montrent que des traces de sédiments et de colmatage ferrique. Les niveaux de Fe2+ sont significativement plus faibles dans l’eau à la sortie des drains que dans l’eau de la nappe. Le processus de colmatage ferrique ne semble que commencer et son impact n’est pas mesurable au niveau des débits unitaires à la sortie des drains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

New high-resolution seismic data complemented with bedrock samples allowed us to propose a revised geological map of the Bay of Seine and to better define the control by the geological substrate on the morphogenesis and evolution of the Seine River during Pleistocene times. The new data confirm previous works. The Bay of Seine can be divided into two geological parts: a Mesozoic monocline domain occupying most of the bay and a syncline domain, mostly Tertiary, in the north, at the transition with the Central English Channel area. The highlighting of Eocene synsedimentary deformations, marked by sliding blocks in the syncline domain, is one of the most original inputs of this new study in the Bay of Seine that underlines the significant role of the substrate on the formation of the Seine paleo-valley. In the monocline domain, three terraces, pre-Saalian, Saalian and Weischelian in age respectively, constitute the infill of the paleovalley, preferentially incised into the middle to upper Jurassic marl-dominated formations, and bounded to the north by the seaward extension of the Oxfordian cuesta. The three terraces are preserved only along the northern bank of the paleovalley, evidencing a NE-to-SW migration of the successive valleys during the Pleistocene. We assume this displacement results from the tectonic tilt of the Paris Basin western margin. In the North, the paleo-Seine is incised into the axis of the tertiary syncline, and comprises three fill terraces that are assumed to have similar ages than those of the terraces. The fill terrace pattern is associated to the subsiding character of this northern domain of the Bay of Seine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre 1950 et 1970, le Québec a connu une période d’effervescence dans le domaine de la construction de bâtiments. De ce nombre se retrouvent plusieurs écoles construites avec de la maçonnerie non armée. En effet, ce matériau a servi dans la construction de murs structuraux ou non structuraux servants à faire la division des pièces dans ces bâtiments ainsi que pour isoler. Par contre, au niveau international, les murs constitués de blocs en béton ont fait mauvaise figure en subissant d’importants dommages principalement dus à un dimensionnement inadéquat. Ce programme de recherche a comme objectif principal de montrer que ce matériau pourvu d’armatures et complètement rempli de coulis permet d’atteindre les niveaux de performance escomptés. Pour y arriver, des essais sous charges cycliques à l’aide de vérins et d’un mur de réaction ont été effectués sur des murs en maçonnerie armée. Puisque les murs sont bien instrumentés, les résultats des essais ont permis d’idéaliser adéquatement le comportement des murs de maçonnerie ainsi que d’identifier les états d’endommagement pour chaque niveau de performance. À l’aide de ce modèle et de la variabilité des paramètres, la performance sismique d’une école typique de 2 étages située à Montréal a été évaluée à l’aide de courbes de fragilité selon l’analyse à bandes multiples. Afin de générer les accélérogrammes, ces derniers sont normalisés au spectre conditionné à la période fondamentale du bâtiment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.