256 resultados para Premiers
Resumo:
Les liposomes sont des nanovecteurs polyvalents et prometteurs quant à leur utilisation dans plusieurs domaines. Il y a une décennie, un nouveau type de liposome constitué d’amphiphiles monoalkylés et de stérols est né fortuitement dans notre groupe. Ils sont nommés Stérosomes puisqu’ils contiennent une grande proportion de stérols, entre 50 et 70 mol %. Les objectifs de cette thèse sont de développer de nouvelles formulations de Stérosomes ayant des caractéristiques spécifiques et d’acquérir une compréhension plus profonde des règles physicochimiques qui dictent leur comportement de phase. Nous avons spécifiquement examiné le rôle de motifs moléculaires des stérols, de la charge interfaciale et de la capacité à former des liaisons H dans les interactions intermoléculaires menant à l’autoassemblage. Le comportement de phase a été caractérisé par calorimétrie différentielle à balayage (DSC), par spectroscopie infrarouge (IR) et par spectroscopie de résonance magnétique nucléaire du deutérium (²H NMR). Premièrement, nous avons établi certaines corrélations entre la structure des stérols, leur tendance à former des bicouches fluides en présence d'amphiphile monoalkylé et la perméabilité des grandes vésicules unilamellaires (LUV) formées. La nature des stérols module les propriétés de mélange avec de l’acide palmitique (PA). Les stérols portant une chaîne volumineuse en position C17 sont moins aptes à induire des bicouches fluides que ceux qui ont une chaîne plus simple, comme celle du cholestérol. Un grand ordre de la chaîne alkyle de PA est un effet commun à tous les stérols investigués. Il a été démontré que la perméabilité des LUV peut être contrôlée en utilisant des stérols différents. Cependant, ces stérols n’ont aucun impact significatif sur la sensibilité des Stérosomes au pH. Afin de créer des liposomes qui sont sensibles au pH et qui ont une charge positive à la surface, des Stérosomes composés de stéarylamine et de cholestérol (Chol) ont été conçus et caractérisés. Il a été conclu que l’état de protonation de l’amine, dans ce travail, ou du groupe carboxylique, dans un travail précédent, confère une sensibilité au pH et détermine la charge à la surface du liposome. Les premiers Stérosomes complètement neutres ont été fabriqués en utilisant un réseau de fortes liaisons H intermoléculaires. Le groupe sulfoxyde est capable de former de fortes liaisons H avec le cholestérol et les molécules d’eau. Une bicouche fluide métastable a été obtenue, à la température de la pièce, à partir d'un mélange équimolaire d’octadécyl méthyl sulfoxyde (OMSO) et de Chol. Ce comportement distinct a permis d’extruder le mélange pour former des LUV à la température de la pièce. Après 30 h, le temps de vie de la phase métastable, des Stérosomes stables et imperméables existaient toujours sous une forme solide. Un diagramme de température-composition a été proposé afin de résumer le comportement de phase des mélanges d’OMSO/Chol. Finalement, nous avons élaboré des Stérosomes furtifs en incorporant du polyéthylène glycol (PEG) avec une ancre de cholestérol (PEG-Chol) à l’interface de Stérosomes de PA/Chol. Jusqu’à 20 mol % de PEG-Chol peut être introduit sans perturber la structure de la bicouche. La présence du PEG-Chol n’a aucun impact significatif sur la perméabilité de la LUV. L'encapsulation active de la doxorubicine, un médicament contre le cancer, a été réalisée malgré la faible perméabilité de ces LUV et la présence du PEG à l’interface. L’inclusion de PEG a modifié considérablement les propriétés de l’interface et a diminué la libération induite par la variation de pH observée avec des LUV nues de PA/Chol. Cette formulation inédite est potentiellement utile pour l’administration intraveineuse de médicaments.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Le but de ce mémoire est d’expliciter en détail et de voir la portée d'un passage bien précis du traité des Topiques, ouvrage où Aristote tente d'élaborer une méthode qui permettra de raisonner de manière dialectique. Dans le deuxième chapitre du premier livre (I, 2), il énonce de manière succincte trois utilités que le traité en question peut procurer à celui qui possède et maîtrise adéquatement cette méthode. En premier lieu, la dialectique servirait de gymnastique intellectuelle pour former l'esprit et lui donner plus de souplesse dans ses raisonnements. Dans un second temps, elle serait utile dans les rencontres de tous les jours avec autrui parce qu’elle permettrait de discuter et d'argumenter sur un sujet donné avec le premier venu. Enfin, il semble également que la dialectique soit utile pour les «connaissances de caractère philosophique», en ce sens qu'elle permettrait de développer les apories et ultimement, d'établir les principes ou les notions premières de chaque science. Dans ce travail, je me propose donc d’examiner chacune de ces prétendues utilités afin de voir comment, et dans quelle mesure, nous pouvons réellement affirmer que la dialectique s’avère profitable pour chacun des services énumérés en Topiques I, 2.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
La présente recherche porte sur la lecture littéraire dans un contexte d’enseignement primaire et concerne plus précisément les albums jeunesse qui favorisent le développement des habiletés interprétatives. Il s’agit d’une recherche-développement qui comporte trois objectifs. Le premier objectif consiste à développer un outil pour analyser les procédés narratifs des albums jeunesse et y cerner les éléments propices au travail interprétatif. Le second objectif vise à mettre à l’essai l’outil d’analyse afin d’en mesurer la validité et la fidélité, alors que le dernier objectif consiste à élaborer, à l’aide de l’outil développé, un répertoire d’albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire. La méthodologie mise en œuvre afin d’atteindre les trois objectifs a d’abord permis d’analyser les besoins, c’est-à-dire, les finalités et les utilisateurs de l’outil d’analyse, puis d’en concevoir et d’en élaborer une première version, de la mettre à l’essai afin d’en évaluer la validité auprès d’experts, avant d’en produire une deuxième version, d’en évaluer la fidélité à l’aide de codeurs et finalement, d’en produire une troisième puis une quatrième version afin d’élaborer un répertoire d’albums jeunesse québécois propices au travail interprétatif. Bien que la mise à l’essai ne permette pas de conclure de façon tout à fait satisfaisante à propos de l’objectivité des indicateurs de l’outil développé, l’analyse des commentaires des experts permet d’affirmer que les indicateurs de l’outil d’analyse présentent un très haut degré de pertinence, ce qui donne à penser que l’outil développé de même que le répertoire de quinze albums jeunesse québécois susceptibles de favoriser le développement des habiletés interprétatives des élèves du primaire élaboré, dans le cadre de cette recherche, peuvent s’avérer de premiers outils utiles et pertinents pour le milieu scolaire.
Resumo:
UNE EXPOSITION NÉONATALE À L’OXYGÈNE MÈNE À DES MODIFICATIONS DE LA FONCTION MITOCHONDRIALE CHEZ LE RAT ADULTE Introduction: L’exposition à l’oxygène (O2) des ratons nouveau-nés a des conséquences à l’âge adulte dont une hypertension artérielle (HTA), une dysfonction vasculaire, une néphropénie et des indices de stress oxydant. En considérant que les reins sont encore en développement actif lors des premiers jours après la naissance chez les rats, jouent un rôle clé dans le développement de l’hypertension et qu’une dysfonction mitochondriale est associé à une augmentation du stress oxydant, nous postulons que les conditions délétères néonatales peuvent avoir un impact significatif au niveau rénal sur la modulation de l’expression de protéines clés du fonctionnement mitochondrial et une production mitochondriale excessive d’espèces réactives de l’ O2. Méthodes: Des ratons Sprague-Dawley sont exposés à 80% d’O2 (H) ou 21% O2 (Ctrl) du 3e au 10e jr de vie. En considérant que plusieurs organes des rats sont encore en développement actif à la naissance, ces rongeurs sont un modèle reconnu pour étudier les complications d’une hyperoxie néonatale, comme celles liées à une naissance prématurée chez l’homme. À 4 et à 16 semaines, les reins sont prélevés et les mitochondries sont extraites suivant une méthode d’extraction standard, avec un tampon contenant du sucrose 0.32 M et différentes centrifugations. L’expression des protéines mitochondriales a été mesurée par Western blot, tandis que la production d’ H202 et les activités des enzymes clés du cycle de Krebs ont été évaluées par spectrophotométrie. Les résultats sont exprimés par la moyenne ± SD. Résultats: Les rats mâles H de 16 semaines (n=6) présentent une activité de citrate synthase (considéré standard interne de l’expression protéique et de l’abondance mitochondriales) augmentée (12.4 ± 8.4 vs 4.1 ± 0.5 μmole/mL/min), une diminution de l’activité d’aconitase (enzyme sensible au redox mitochondrial) (0.11 ± 0.05 vs 0.20 ± 0.04 μmoles/min/mg mitochondrie), ainsi qu’une augmentation dans la production de H202 (7.0 ± 1.3 vs 5.4 ± 0.8 ρmoles/mg protéines mitochondriales) comparativement au groupe Ctrl (n=6 mâles et 4 femelles). Le groupe H (vs Ctrl) présente également une diminution dans l’expression de peroxiredoxin-3 (Prx3) (H 0.61±0.06 vs. Ctrl 0.78±0.02 unité relative, -23%; p<0.05), une protéine impliquée dans l’élimination d’ H202, de l’expression du cytochrome C oxidase (Complexe IV) (H 1.02±0.04 vs. Ctrl 1.20±0.02 unité relative, -15%; p<0.05), une protéine de la chaine de respiration mitochondriale, tandis que l’expression de la protéine de découplage (uncoupling protein)-2 (UCP2), impliquée dans la dispersion du gradient proton, est significativement augmentée (H 1.05±0.02 vs. Ctrl 0.90±0.03 unité relative, +17%; p<0.05). Les femelles H (n=6) (vs Ctrl, n=6) de 16 semaines démontrent une augmentation significative de l’activité de l’aconitase (0.33±0.03 vs 0.17±0.02 μmoles/min/mg mitochondrie), de l’expression de l’ATP synthase sous unité β (H 0.73±0.02 vs. Ctrl 0.59±0.02 unité relative, +25%; p<0.05) et de l’expression de MnSOD (H 0.89±0.02 vs. Ctrl 0.74±0.03 unité relative, +20%; p<0.05) (superoxide dismutase mitochondriale, important antioxidant), tandis que l’expression de Prx3 est significativement réduite (H 1.1±0.07 vs. Ctrl 0.85±0.01 unité relative, -24%; p<0.05). À 4 semaines, les mâles H (vs Ctrl) présentent une augmentation significative de l’expression de Prx3 (H 0.72±0.03 vs. Ctrl 0.56±0.04 unité relative, +31%; p<0.05) et les femelles présentent une augmentation significative de l’expression d’UCP2 (H 1.22±0.05 vs. Ctrl 1.03±0.04 unité relative, +18%; p<0.05) et de l’expression de MnSOD (H 1.36±0.01 vs. 1.19±0.06 unité relative, +14%; p<0.05). Conclusions: Une exposition néonatale à l’O2 chez le rat adulte mène à des indices de dysfonction mitochondriale dans les reins adultes, associée à une augmentation dans la production d’espèces réactives de l’oxygène, suggérant que ces modifications mitochondriales pourraient jouer un rôle dans l’hypertension artérielle et d’un stress oxydant, et par conséquent, être un facteur possible dans la progression vers des maladies cardiovasculaires. Mots-clés: Mitochondries, Reins, Hypertension, Oxygène, Stress Oxydant, Programmation
Resumo:
Réalisé en cotutelle avec l’Université Lumière Lyon 2
Resumo:
Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.
Resumo:
La thèse comporte deux parties. Dans la première, constatant, d’une part, que les publications de référence à l’égard de la fiction télévisuelle québécoise sont rares, et que, d’autre part, les études télévisuelles souffrent d’un manque à penser l’esthétique de la fiction, elle avance une approche nouvelle. La fiction télévisuelle est l’objet d’une évolution esthétique portée par ses deux dispositifs et scandée en trois degrés d’expression. Elle évolue d’un dispositif où le son prévaut dans le cadre de la télé-audition à un autre dispositif où l’image prédomine au sein de la télé-vision. La fiction télévisuelle réalise ce parcours en trois degrés d’expression: du degré zéro, la monstration de la parole, nommé la télé-oralité, au second degré, l’image énonciative, nommé la télé-visualité, en passant par le premier degré, une oscillation transitoire, nommé la télé-dualité. Elle remédiatise le trajet du cinéma de fiction des premiers temps à l’auteurielité, un demi-siècle plus tard. Dans la seconde partie, la thèse applique le modèle théorique au corpus téléromanesque. Elle démontre que la fiction télévisuelle québécoise connait une évolution du téléroman à la sérietélé, en passant par la télésérie et par une trilogie épistémique. Au terme du parcours réflexif, une conclusion s’impose: le téléromanesque actuel participe de plain-pied à ce qui semble être, depuis le nouveau millénaire, l’Age d’art de la fiction télévisuelle.
Resumo:
Ce mémoire aborde la question des fondements moraux de la défense de provocation. Les concepts actuellement utilisés pour analyser ces fondements sont habituellement ceux de justification et d'excuse. À notre avis, la défense de provocation doit plutôt être interprétée comme une articulation particulière des principes gouvernant la détermination de la peine. Les deux premiers chapitres seront consacrés respectivement au concept de justification et d'excuse, et auront pour objet d'écarter leur paradigme de l'analyse des fondements de la défense de provocation. Le troisième chapitre montre comment il est possible de conceptualiser le moyen de défense comme une articulation des principes de détermination de la peine.
Resumo:
Lorsque André Tremblay, vice-doyen à la recherche et à l’enseignement supérieur, m’a proposé de devenir l’assistante de recherche d’Andrée Lajoie, je ne pouvais savoir qu’il m’offrait, sur un plateau d’argent, l’aventure intellectuelle de ma vie. Elle était déjà ma professeure à la maîtrise, en voie de devenir mon modèle. Sa générosité m’impressionnait lorsqu’il s’agissait de partager ses connaissances et ses idées. Elle n’était pas celle qui n’osait le faire de crainte qu’on lui vole ses hypothèses de recherche. Sa convivialité intellectuelle l’a d’ailleurs bien servie, à preuve, les premiers lecteurs et critiques de ses textes, notamment les Jean Beetz, Jean-Louis Baudouin, Pierre Carignan, Pierre-André Côté, François Chevrette, Yves Ouellette, Gilles Pépin, Pierre Trudel et Marcel Pépin. Elle n’était pas non plus celle qui passait sous silence ce que les autres lui avaient appris et respectait ceux et celles qui ébranlaient ses certitudes ou qui demandaient d’en être convaincus. Enfin, elle voulait que la voie qu’elle traçait à ses assistants et assistantes de recherche devienne la leur, sans rien demander en retour. À cela s’ajoutaient sa profession de foi envers la psychanalyse, l’amour des chiens et le cercle enviable de ses amitiés.
Resumo:
Pour la pensée humaine, l’image a toujours constitué une interrogation laissée sans réponse définitive : de l’interdit biblique à la possibilité technologique infinie, l’image a traversé des étapes conceptuelles complexes et hétérogènes. Aujourd’hui, on conçoit l’image comme une présence incontournable de l’existence quotidienne et comme une forme de réflexion mystérieuse. Cette thèse propose une analyse de la vision sur l’image chez Walter Benjamin et Aby Warburg à travers quelques concepts essentiels : image de pensée, survivance, espace de pensée, coupure, représentation de l’histoire. Située énigmatiquement entre les arts visuels et la pensée philosophique, l’image devient un sujet de réflexion à la fin du 19e siècle et au début du 20e siècle; les deux penseurs mentionnés ont été les premiers à interroger les valeurs conceptuelles de l’image et à chercher de l’évoquer en tant que spectre de la pensée. Les morceaux aphoristiques et les articles critiques de Benjamin rencontrent discrètement les études esthétiques de Warburg au point où l’idée de l’image amorce toute réflexion. Pour l’imaginaire contemporain, les structures conceptuelles bâties par Benjamin et Warburg constituent des éléments dominants dans l’engrenage réflexif atonal d’aujourd’hui. Lorsque le Denkraum (espace de pensée) et le Denkbild (image de pensée) gèrent la dynamique de la philosophie de Benjamin et Warburg, le Nachleben (survie) et la coupure nuancent le grand tableau de l’histoire (Geschichtsdarstellung). L’analyse comparatiste de ces concepts aboutit à la conclusion que l’image est intimement et paradoxalement liée à la vision de l’histoire; en fait, l’image n’est qu’une représentation de l’histoire qui, à son tour, se représente dans chaque image.
Resumo:
Nous présentons une méthode hybride pour le résumé de texte, en combinant l'extraction de phrases et l'élagage syntaxique des phrases extraites. L'élagage syntaxique est effectué sur la base d’une analyse complète des phrases selon un parseur de dépendances, analyse réalisée par la grammaire développée au sein d'un logiciel commercial de correction grammaticale, le Correcteur 101. Des sous-arbres de l'analyse syntaxique sont supprimés quand ils sont identifiés par les relations ciblées. L'analyse est réalisée sur un corpus de divers textes. Le taux de réduction des phrases extraites est d’en moyenne environ 74%, tout en conservant la grammaticalité ou la lisibilité dans une proportion de plus de 64%. Étant donné ces premiers résultats sur un ensemble limité de relations syntaxiques, cela laisse entrevoir des possibilités pour une application de résumé automatique de texte.
Resumo:
La présente recherche vise à décrire le développement orthographique des élèves arabophones de 1re année du secondaire en Égypte au début de l’apprentissage du français langue étrangère. Les recherches égyptiennes qui concernent le français écrit se sont préoccupées des erreurs grammaticales commises par les élèves. À notre connaissance, il n’existe pas d’études relatives à l’appropriation de l’orthographe française menée auprès de ces élèves. Afin de combler ce vide, nous avons souhaité apporter un éclairage sur les compétences orthographiques des élèves en essayant d’éclairer la documentation de ces compétences en français écrit par la mise en relation avec celle de jeunes enfants arabophones qui apprennent le français L2 au préscolaire lors de leur séjour au Québec. Afin d’atteindre nos objectifs, nous avons soumis 30 élèves arabophones du secondaire à une épreuve d’orthographes approchées à quatre reprises. Celle-ci s’est déroulée dans le cadre d’un entretien semi-structuré individuel dans lequel les élèves ont été invités à produire des mots et une phrase. L’analyse descriptive et statistique de la production écrite des sujets a permis d’observer trois types de préoccupations écrites : visuographiques, phonologiques et orthographiques. D’autre part, leurs écrits ont témoigné d’un transfert langagier de l’arabe L1 et de l’anglais LE, qui était parfois positif, d’autres fois négatif. Les résultats ont, enfin, révélé que les élèves ont utilisé trois stratégies, lexicale, phonologique et analogique, lors de leurs productions. En outre, une étude de cas multiples exploratoire avec quatre enfants arabophones du préscolaire au Québec a été effectuée. Ces derniers ont été individuellement invités à produire des mots et une phrase en français et en arabe. De manière exploratoire, nous avons mis en relation l’appropriation de l’écrit des élèves du secondaire et celle des enfants du préscolaire en français et en arabe, ce qui nous a permis de vérifier l’effet de l’âge sur le développement orthographique et sur le transfert langagier chez les apprenants. Les résultats obtenus indiquent que la performance écrite des élèves du secondaire était significativement plus réussie que celle des enfants du préscolaire et que les premiers étaient les plus susceptibles de produire un transfert langagier. Ainsi, l’âge de l’apprenant peut avoir un impact sur l’appropriation de l’écrit ainsi que sur le transfert langagier en français langue seconde/étrangère. Finalement, au-delà de son apport scientifique et pratique, la présente recherche propose des pistes de recherches futures.