18 resultados para cinéma expérimental

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude propose l’analyse de représentations queer dans le cinéma des années 2000. Plus précisément, elle porte sur la façon dont l’abus sexuel au masculin est représenté dans deux films produits en 2004, soit La mauvaise éducation (La mala educación), du réalisateur espagnol Pedro Almodovar, et Mysterious Skin, du réalisateur étatsunien Gregg Araki. À l’aide de la réflexion contenue dans Ça arrive aussi aux garçons : l’abus sexuel au masculin du sociologue Michel Dorais, l’objectif vise à démontrer comment cet événement traumatique influence de manière significative la construction identitaire et sexuelle des personnages principaux. De manière plus générale, ce mémoire positionne ces deux réalisateurs dans la grande et riche lignée du cinéma queer, qui met en scène des désirs hors norme et des identités sexuelles alternatives. Le premier chapitre porte sur les théories queer et ses diverses manifestations au grand écran. Il permet par la suite de réunir Almódovar et Araki dans une même étude et de souligner la pertinence de cette réunion. Le deuxième chapitre s’intéresse, à l’aide d’analyses d’extraits significatifs des films, à la façon dont chacun met en scène l’abus sexuel au masculin et comment cet événement se présente dans la vie des protagonistes. Le dernier chapitre se penche sur la construction identitaire et sexuelle des personnages principaux, afin de mieux comprendre l’incidence de l’abus sexuel. Jumelée aux travaux de Judith Butler, l’approche queer sera donc mise de l’avant dans cette étude qui se montre d’emblée attentive, d’un point de vue cinématographique, aux notions de sexe, de genre et de désir, et ce, à travers l’analyse de plusieurs extraits filmiques et d’éléments à la fois narratifs et structurels particulièrement significatifs quant à la représentation de l’abus sexuel au masculin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les personnes atteintes de démence sévère, résidant dans un centre d’hébergement et de soins de longue durée (CHSLD) et approchant la fin de leur vie, ne reçoivent pas systématiquement des soins palliatifs, malgré que ce niveau de soins soit le plus approprié. La plupart de ces personnes reçoivent également un grand nombre de médicaments dont les effets indésirables peuvent contribuer à des souffrances évitables. Une approche axée sur les soins palliatifs serait possiblement associée à une réduction de la charge médicamenteuse et, du même coup, à une prescription plus appropriée. Les objectifs de ce projet de recherche étaient de décrire l’usage des médicaments chez les résidents atteints de démence sévère en CHSLD, de comparer leur usage de médicaments à des critères de pertinence et d’évaluer si la mise en œuvre d’une approche axée sur les soins palliatifs était associée aux médicaments prescrits. Cette étude décrit l’usage des médicaments chez 215 sujets atteints de démence sévère et en fin de vie qui ont participé à une étude d’intervention quasi expérimentale menée dans quatre CHSLD du Québec sur la mise en œuvre d’une approche axée sur les soins palliatifs. L’utilisation des médicaments a été comparée à trois listes de critères pertinents publiés, soit ceux de Holmes, Rancourt et Kröger, en utilisant des statistiques descriptives. Les analyses sur l’usage de 412 médicaments différents chez 120 sujets du groupe expérimental et 95 sujets du groupe témoin ont montré que cette approche axée sur les soins palliatifs n’est pas associée à une prescription plus appropriée des médicaments chez ces personnes particulièrement vulnérables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cinéma constitue un langage qui témoigne du réel et de l’imaginaire. Et l’image est une forme d’écriture de ce langage. L’expérience qui sera ici relatée est celle de la genèse d’une transécriture cinématographique du recueil de poésie II n’y a plus de chemin, de Jacques Brault. Par ce processus de transécriture, les images mentales générées par la lecture deviennent images cinématographiques et témoignent d’une nouvelle forme d’écriture des poèmes. La transécriture ne s’effectue cependant pas uniquement par la réalisation d’images cinématographiques. Chaque lecteur, tout comme chaque spectateur, est aussi transécrivain. Utilisant les fragments d’images proposées par le poème et comblant les vides de l’univers décrit, le lecteur imagine le poème, crée des images mentales, réalisant pour lui-même un film intérieur. Par conséquent, plus il s’engage dans cette aventure, plus il se voit forcé d’adopter le parcours intrinsèque des images qui le manipulent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alain Robbe-Grillet, d’abord connu en tant que romancier, a dès le début des années 1960 partagé son temps entre le cinéma et la littérature. Après avoir fourni le scénario de L’année dernière à Marienbad, il est passé derrière la caméra et a réalisé une dizaine de films qui, tant par leur forme que leur propos, poursuivent les recherches esthétiques entreprises dans sa pratique littéraire. Plus encore, il nous semble que le début de cette aventure cinématographique marque un tournant dans son œuvre. Alors que le point de vue qui portait les premiers romans — point de vue que les critiques ont rapproché de celui d’une caméra —, marquait déjà la dimension intermédiale de son œuvre, il apparaît que son passage dans la chaise du réalisateur a été le germe d’une radicalisation de sa pratique. Ainsi, les romans et les films qui ont suivi possèdent une portée intermédiale beaucoup plus large. De fait, c’est l’ensemble de la narration qui s’y trouve remise en question par la mise en évidence des spécificités de chacun des médias et par la transposition de procédés propres à la littérature dans le film, et vice versa. C’est par une étude comparative de La maison de rendez-vous (1965) et de L’homme qui ment (1968) que nous montrons en quoi consiste la relation intermédiale que Robbe-Grillet établit entre les disciplines, en plus de mettre en évidence les mécaniques qui, ancrées dans la matérialité des médias, fondent le roman et le film.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre mémoire se penche sur un corpus de films spécifique; il s’agit des westerns américains racontant la construction d’un chemin de fer. Nous traitons ces films comme un sous-genre du western que nous intitulons Railroad Building Story. Est proposé dans notre étude que la structure narrative étant à la base de tous les récits du sous-genre provient d’une idéalisation des faits historiques entourant la construction du premier chemin de fer transcontinental aux États-Unis. Dans le premier chapitre, nous présentons une adaptation de la méthode d’analyse de Vladimir Propp, telle que présentée dans la Morphologie du conte, dans le but d’identifier la structure narrative stable des films du corpus et d’en décrire les unités narratives constantes. L’application de la méthode est effectuée dans le second chapitre, où chacune des unités narratives constantes est expliquée. De plus, nous confrontons ces unités narratives à l’histoire du chemin de fer transcontinental afin d’analyser les rapports idéologiques existant entre ces récits fictionnels et leur référent historique. Cette description sémionarrative et historique de la Railroad Building Story met en évidence sa fonction idéologique permanente en tant que mythe cinématographique du chemin de fer américain. Dans le troisième chapitre, les films sont analysés d’après leur contexte sociohistorique de production. Le chapitre est divisé selon les quatre périodes historiques dans lesquels les films du sous-genre furent réalisés, soit les années 1920, la Grande Dépression, l’ère maccarthyste et le début des années 1960. En analysant les films d’après une approche sociocritique, nous démontrons comment ceux-ci traduisent des préoccupations idéologiques liées au climat social de la nation américaine. Nous expliquons donc comment le mythe du chemin de fer américain se voit réapproprié à chaque période historique, et ce, afin de répondre aux exigences idéologiques contemporaines à la production des films de la Railroad Building Story.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte climatique rigoureux comme celui du Québec, l’interaction entre la charge et le climat a une grande influence sur la performance des structures de chaussées flexibles (Doré et Zubeck, 2009). Pendant le dégel printanier, avec la fonte de la glace, la chaussée s’affaiblit et cet affaiblissement la rend vulnérable à la sollicitation par le trafic lourd ce qui accélère divers phénomènes de dégradation, notamment l’endommagement par fatigue et l’orniérage structural (Farcette, 2010). Afin de minimiser les effets des charges lourdes sur une chaussée affaiblie lors du printemps, les administrations routières choisissent souvent de limiter les charges par essieu ou par véhicule lors du dégel. L’objectif de ce projet est de développer un outil d’aide pour la gestion des restrictions de charge en période de dégel en fonction des données recueillies par les stations de météo routière. Deux sections expérimentales composées des mêmes matériaux mais avec des épaisseurs d’enrobés bitumineux différentes situées au Site Expérimental Routier de l’Université Laval (SERUL) ont été utilisées pour ce projet. Pour bien interpréter le comportement des structures, des jauges de déformations verticales et horizontales, des jauges de contraintes, des jauges de teneur en eau et des thermistances ont été installées dans chaque couche. Pour solliciter mécaniquement la chaussée, un déflectomètre à masse tombante (FWD) a été utilisé. Les résultats obtenus ont permis de de bien comprendre les mécanismes d’affaiblissement de la chaussée durant la période de dégel. Ils ont aussi montré que l’application d’une période de restriction de charge pendant la période de dégel permettait d’avoir un gain sur la durée de vie de la chaussée, cette période de restriction est donc justifiée et efficace. Néanmoins, pour une meilleure gestion du réseau routier, de nouveaux critères pour mieux déterminer la période de restriction de charges sont proposés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les unités linguistiques sous-lexicales (p.ex., la syllabe, le phonème ou le phone) jouent un rôle crucial dans le traitement langagier. En particulier, le traitement langagier est profondément influencé par la distribution de ces unités. Par exemple, les syllabes les plus fréquentes sont articulées plus rapidement. Il est donc important d’avoir accès à des outils permettant de créer du matériel expérimental ou clinique pour l’étude du langage normal ou pathologique qui soit représentatif de l’utilisation des syllabes et des phones dans la langue orale. L’accès à ce type d’outil permet également de comparer des stimuli langagiers en fonction de leurs statistiques distributionnelles, ou encore d’étudier l’impact de ces statistiques sur le traitement langagier dans différentes populations. Pourtant, jusqu’à ce jour, aucun outil n’était disponible sur l’utilisation des unités linguistiques sous-lexicales du français oral québécois. Afin de combler cette lacune, un vaste corpus du français québécois oral spontané a été élaboré à partir d’enregistrements de 184 locuteurs québécois. Une base de données de syllabes et une base de données de phones ont ensuite été construites à partir de ce corpus, offrant une foule d’informations sur la structure des unités et sur leurs statistiques distributionnelles. Le fruit de ce projet, intitulé SyllabO +, sera rendu disponible en ligne en accès libre via le site web http://speechneurolab.ca/fr/syllabo dès la publication de l’article le décrivant. Cet outil incomparable sera d’une grande utilité dans plusieurs domaines, tels que les neurosciences cognitives, la psycholinguistique, la psychologie expérimentale, la phonétique, la phonologie, l’orthophonie et l’étude de l’acquisition des langues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire entend analyser la pratique de l’auto-filmage dans deux films : La Pudeur ou l’impudeur (Hervé Guibert) et Tarnation (Jonathan Caouette). Nous regroupons ces long-métrages sous l’étiquette « auto-filmage pathographique ». Le malade, s’émancipant de l’imagerie médicale et des pratiques cinématographiques institutionnelles, reprend l’image filmique à son compte, aidé en cela par une technologie toujours plus ergonomique. Cette résurgence de l’image du corps malade dans le champ social ne se fait pas sans heurt ; l’exposition de corps décharnés et agoniques convoque un imaginaire catastrophiste et contredit les rituels d’effacement du corps auxquels procède la société occidentale. La forme que prend le récit de soi dans l’auto-filmage pathographique dépend de la maladie qui affecte chaque créateur. Nous observons une redéfinition de la sincérité, en lien avec l’exercice autobiographique. Il s’agit d’utiliser, dans l’auto-filmage pathographique, certains procédés fictionnels pour créer un discours sur soi-même dont la véracité repose sur d’autres critères que ceux communément admis. L’auto-filmage pathographique suppose en ce sens un véritable changement d’attitude et la mise en place de techniques de soi. Il induit une forme de réconciliation avec sa propre identité physique et psychique. En cela, l’écriture filmique de soi est un agent transformateur de la vie et un exercice spirituel. Les réalisateurs ne sont cependant pas uniquement tournés vers eux-mêmes. Chacun inclut quelques privilégiés au coeur de sa démarche. Le soin de soi, dans l’auto-filmage pathographique, ne se désolidarise pas du soin des autres. Auto-filmage et caméra subjective entretiennent un lien dialectique qui donne son sens à l’auto-filmage pathographique et voit leur antagonisme éclater. L’individu s’auto-filmant n’est pas seul ; sa démarche n’est pas qu’un solipsisme. Elle se voit dépassée par l’émergence de l’autre dans le champ ou parfois même, sa prise en main de la caméra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les populations caractérisées par des fluctuations cycliques ont fasciné et continuent de générer un grand intérêt chez la communauté scientifique en raison de la complexité des facteurs de régulation qui en sont responsables. Plusieurs hypothèses ont été proposées pour expliquer ces fluctuations cycliques mais aucun consensus n’a encore été atteint malgré près de 100 ans de recherche. La disponibilité de la nourriture et les effets sociaux (e.g. interactions compétitives) ont été proposés comme facteurs responsables de cycles de certaines espèces. Toutefois, la prédation est probablement le facteur le plus susceptible de causer des fluctuations cycliques chez les populations fauniques en raison de son effet dépendant de la densité avec délai. Un tandem circulaire de raréfaction et densification des prédateurs et des proies par des effets directs (i.e. mortalités) seraient à l’origine des cycles d’abondance. De plus, de récentes études montrent que les effets indirects (comme le stress) de la prédation pourraient être aussi importants que les effets directs pour générer les fluctuations cycliques. Cette thèse vise à identifier les effets directs et indirects de la prédation qui affectent la population de lemmings bruns de l’Île Bylot, Nunavut, caractérisée par des cycles d’abondance de 3-4 ans. Pour ce faire, nous avons d’abord comparé la plausibilité de l’hypothèse de la limitation par nourriture vis-à-vis l’hypothèse de la prédation en déterminant la chronologie saisonnière des cycles des lemmings. Ensuite, nous avons construit en 2012-2013 une clôture de 9 ha coiffée d’un filet anti-prédateur aviaire dans lequel nous avons piégé les lemmings de 2013 à 2015. Une deuxième grille de trappage sans clôture a été utilisée à des fins de comparaisons. Ces deux grilles étaient actives dès 2008, ce qui nous a permis d’avoir un contrôle pré-expérimental pour les données démographiques (effets directs). En 2014 et 2015, nous avons récolté les fèces des lemmings dans les deux grilles de trappage afin de quantifier les métabolites d’hormones de stress. Une validation de la mesure des métabolites fécales des glucocorticoïdes (i.e. hormones de stress) a été menée afin de mesurer le stress des lemmings de façon non-invasive. Les résultats sont clairs : (1) le déclin des lemmings se produit à la fin de l’été alors que les prédateurs sont au plus fort de leur abondance et pas à la fin de l’hiver, supportant ainsi l’hypothèse de la limitation par la prédation. Nos résultats suggèrent aussi (2) que les lemmings à l’intérieur de la clôture avaient une survie plus élevée qu’à l’extérieur, favorisant ainsi une croissance plus forte de la population. Ensuite, (3) les lemmings ont montré des niveaux de stress plus faibles sans prédation sans toutefois que cela ait un impact sur leur reproduction. À la lumière des résultats de cette thèse et en les comparant avec deux autres études ayant aussi réduit expérimentalement l’abondance des prédateurs dans la toundra arctique, nous pouvons conclure que la prédation est la force trophique dominante de régulation de l’abondance des lemmings. Cette étude montre également que le stress induit par la prédation est insuffisant pour avoir un impact sur la dynamique des lemmings en été, soit pendant la saison où la prédation est maximale. Il est possible que cette absence d’effet soit une réponse adaptative des lemmings pour maintenir une reproduction élevée face à une prédation élevée, et ainsi maximiser leur aptitude phénotypique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, les drains installés dans les sols sableux-limoneux sont sensibles au colmatage par ensablement et/ou par ocre de fer. Dans le passé, les drains avec des pertuis inférieurs à 2 mm étaient utilisés au Québec avec un filtre tissé de 110 microns ou un filtre tricoté de 450 microns. Récemment, des drains avec des pertuis supérieurs à 2 mm ainsi qu’un filtre de 250 microns ont été introduits sur le marché mais n’ont jamais été testés. Le projet avait pour objectif de déterminer les vitesses auxquelles se feront l’ensablement et le colmatage ferrique pour différentes combinaisons de drains (pertuis de 1,8 mm et de 3 mm) et de filtres (110 μm, 250 μm et 450 μm) dans un sol sableux à Bécancour. Un dispositif expérimental en blocs complets (3) aléatoires a été utilisé. Les débits ont été mesurés à la sortie des drains de chaque parcelle et les hauteurs des nappes ont été mesurées avec un bulleur dans des puits d’observation. Le suivi du pH, du potentiel d’oxydoréduction et du contenu en Fe2+ a été réalisé dans l’eau de la nappe et celle des drains. Les drains excavés 13 mois après leur installation ne montrent que des traces de sédiments et de colmatage ferrique. Les niveaux de Fe2+ sont significativement plus faibles dans l’eau à la sortie des drains que dans l’eau de la nappe. Le processus de colmatage ferrique ne semble que commencer et son impact n’est pas mesurable au niveau des débits unitaires à la sortie des drains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Différents courants théoriques, principalement les courants collaboratifs et égocentriques, ont été élaborés pour expliquer l’adaptation de la production verbale lors d’une interaction avec une autre personne. Toutefois, ces courants s’opposent concernant la considération des besoins réels de l’interlocuteur dans la planification initiale des productions verbales. Ce mémoire comprend deux expérimentations réalisées sous un même devis expérimental. Une tâche a été développée pour départager différents types d’adaptation et sources d’information possibles. Les résultats suggèrent que généralement, les personnes produisent de l’information qu’elles-mêmes connaissent et rajoutent de l’information dans un deuxième temps, lorsque nécessaire. Toutefois, lorsqu’elles rencontrent une personne aux connaissances atypiquement restreintes, elles peuvent prendre en considération le vrai niveau de connaissance et produire les informations les plus utiles. Les résultats suggèrent donc que les personnes sont collaboratives pour produire leurs expressions référentielles et qu’elles s’ajustent au réel niveau de connaissances tôt dans l’interaction, lorsqu’elles peuvent utiliser une heuristique de connaissances prototypiques. Avec un interlocuteur aux connaissances atypiquement restreintes, elles produisent cependant des références ciblées, mais spécifiquement lorsqu’il est rencontré avant un interlocuteur prototypique.