759 resultados para Puissance externe
Resumo:
Dans sa thèse, l’auteure analyse la fonction du système judiciaire dans le système juridique selon une double perspective historique et sociologique. Cette approche possède un potentiel euristique important, car elle révèle que la place réservée à la production judiciaire du droit se modifie au gré de la conception que se fait la société de l’origine et de la légitimité du droit. Grâce à la méthodologie proposée par la théorie des systèmes, il est possible d’analyser le phénomène de la montée en puissance des juges dans sa dimension scientifique, en substituant une interprétation sociologique à celle, traditionnelle, formulée par la science politique. Grâce à une réappropriation de la justice par la science juridique, la production judiciaire du droit peut être étudiée dans une perspective systémique. Celle-ci démontre la situation névralgique occupée par la fonction de juger dans le système juridique. Par le biais d’un retour aux sources de la fonction de juger, l’auteur identifie les stratégies empruntées par les titulaires de cette fonction pour maintenir et légitimer leur position dans l’organisation du système juridique. La thèse démontre que le discours judiciaire de la Cour suprême du Canada sur la norme d’indépendance judiciaire homologue la théorie de la place centrale du système judiciaire dans le système juridique. La thèse conclut enfin que des conditions sociologiques sont nécessaires pour assurer l’indépendance judiciaire et garantir la primauté du droit. Ces conditions sont la différenciation sociale, une structure de programme juridique conditionnelle et la limitation de la responsabilité des juges pour l’impact de leurs décisions dans le système social.
Resumo:
Les principaux substrats oxydés à l’exercice, soit les glucides, les lipides et les pro- téines ne contribuent pas tous au même niveau à la fourniture d’énergie lors de l’effort prolongé. De plus, le glucose peut provenir de différentes sources endogènes (muscle, foie) et exogènes. Plusieurs facteurs peuvent influencer leur contribution respective incluant : la masse musculaire impliquée et l’entraînement préalable, le sexe, l’état nutritionnel et les conditions environnementales. L’utilisation d’isotopes stables, tels que le carbone 13 (13C), combinée à la calorimétrie indirecte respiratoire corrigée pour l’excrétion d’urée dans l’urine et la sueur, permet de différencier les substrats endogènes et exogènes et d’évaluer la contribution de leur oxydation à la fourniture d’énergie. Ces méthodes d’investigation permettant d’apprécier la sélection des substrats lors de l’exercice prolongé avec ingestion de glucose ont permis d’effectuer les comparaisons qui ont fait l’objet des trois études de cette thèse. Dans la première étude, la sélection des substrats au cours d’un effort prolongé effectué avec les membres inférieurs ou les membres supérieurs a été comparée avec et sans ingestion de glucose. Une différence modeste fut observée entre la sélection des substrats selon le mode d’exercice avec l’ingestion d’eau, celle-ci favorisant légèrement l’oxydation des glucides lors de l’effort avec les membres supérieurs. La quantité de glucose exogène oxydée était plus faible lors de l’exercice avec les membres supérieurs qu’avec les membres supérieurs, mais sa contribution plus importante, conséquence d’une dépense énergétique plus faible. Dans la deuxième étude, on a comparé la sélection des substrats chez des sujets mas- culins et féminins et les effets d’une alimentation enrichie en glucides ou de l’ingestion de glucose, au cours d’un exercice prolongé d’une durée de deux heures. On reconnaît généralement que, pour une même puissance relative, les femmes utilisent moins de glucides et davantage de lipides que les hommes. Les effets séparés d’une alimentation riche en glucides ou de l’ingestion de glucose pendant l’exercice sur la sélection des substrats furent pourtant similaires chez les deux sexes. L’effet combiné des deux procédures de supplémentation est toutefois plus important chez la femme que chez l’homme, soutenant l’hypothèse qu’un léger déficit en glucides soit présent chez les femmes. Dans la troisième étude, l’oxydation des substrats et particulièrement celle d’amidon exogène au cours d’une marche prolongée à une faible puissance de travail a été décrite. Les individus qui pratiquent des activités physiques prolongées à des intensités faibles (< 40 %VO2max) sont encouragés à ingérer des glucides et de l’eau pendant l’effort, mais la contribution de leur oxydation à la fourniture d’énergie est relativement peu connue. Nous avons montré que, contrairement aux observations précédemment effectuées à jeun sans ingestion de glucides pendant l’effort, les glucides (incluant de source exogène) peuvent fournir une très grande partie de l’énergie lorsqu’ils sont ingérés à des intervalles réguliers au cours de l’exercice prolongé. Dans l’ensemble, les résultats des études expérimentales présentées dans cette thèse montrent que les glucides ingérés peuvent fournir une grande proportion de l’énergie pendant l’exercice prolongé. Toutefois, le mode d’exercice, le sexe et la puissance de travail mènent à des variations qui sont en grande partie liées à une dépense énergétique variable selon les conditions et les groupes d’individus ayant des caractéristiques différentes.
Resumo:
Dans cet ouvrage sera décrite la synthèse de nouveaux analogues du sialyl Lewis X (sLex). A cet effet, nous avons préparé une librairie d’analogues synthétisée à partir d’une approche mettant en jeu un «espaceur» acyclique permettant d’avoir un biais conformationnel que nous avons défini comme la stratégie ATC-B. Nous avions déjà démontré que certains analogues portant un groupe benzoate en C-2 et en C-4 du galactose présentent une activité 50 fois supérieure à celle du sLex. Nous avions par ailleurs démontré qu’en l’absence du benzoate en C-2, l’activité devient alors trois fois plus faible. A présent, il paraissait interessant de synthétiser des analogues ayant seulement un groupe benzoate en C-4 pour evaluer l’impact de ce groupement sur la puissance de nos analogues. Par le passé, nous avions également mis en évidence le rôle des esters sur l’activité des analogues portant un «espaceur» acyclique dans le cadre de la stratégie ATC-B. Nous effectuerons donc des variations à ce niveau pour en évaluer l’impact. Enfin, nous avons préparé une nouvelle famille d’analogues de type dimère. Ceux-ci seront constitués de 2 unités des composés monomériques synthétisés précédemment. La synthèse de ces dimères fera l’emploi de la «Click Chemistry». Cette étude nous mènera a vous présenter la synthèse de ces composés et la méthodologie employée.
Resumo:
Ce mémoire a pour tâche de déterminer le statut ontologique de la puissance chez Aristote. Pour ce faire, il est d’abord question, dans le premier chapitre, de bien définir les deux sens de la puissance, soit la puissance motrice et l’état potentiel. Nous expliquons aussi alors les multiples sens de la puissance motrice et les multiples types de la puissance que sont la nature, l’âme et l’art. Ensuite, le second chapitre étudie les liens entre l’état potentiel et la matière, d’une part, et les liens entre le non-être, la puissance et la possibilité, d’autre part. Enfin, le troisième chapitre explicite la hiérarchie ontologique aristotélicienne pour en dégager le statut ontologique de la puissance par rapport à l’acte. Cela est fait de trois manières : selon l’antériorité de l’acte sur la puissance au sein d’une substance unique ; selon l’antériorité des êtres éternels, notamment celle du premier moteur, sur les êtres générables et corruptibles ; l’antériorité du bien en acte sur le bien puissance.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie
Resumo:
L’objectif de cette étude de cas multiples est d’identifier les facteurs associés à l’intégration de l’approche écologique dans la programmation de prévention-promotion (PP) offerte aux aînés par des organisations locales de santé du Québec. Le modèle de Scheirer a guidé l’étude réalisée dans cinq CSSS choisis en fonction de la dimension écologique de leur programmation PP. Une analyse documentaire et des entretiens semi-dirigés auprès de 38 professionnels et gestionnaires ont constitué la stratégie de collecte de données. Trois catégories de facteurs ont été examinées : les facteurs professionnels, organisationnels et environnementaux. Les résultats suggèrent que les normes organisationnelles, les priorités concurrentes, la structure des équipes, les partenariats avec l’environnement externe, les préjugés, de même que la formation et l’intérêt du personnel influencent le degré d’intégration de l’approche écologique au sein des programmations. Ces résultats permettront de dégager des leviers d'action en vue d’optimiser l’offre de services en prévention-promotion destinée aux aînés.
Resumo:
La présence importante de plusieurs réseaux sans-fils de différentes portées a encouragée le développement d’une nouvelle génération d’équipements portables sans-fils avec plusieurs interfaces radio. Ainsi, les utilisateurs peuvent bénéficier d’une large possibilité de connectivité aux réseaux sans-fils (e.g. Wi-Fi [1], WiMAX [2], 3G [3]) disponibles autour. Cependant, la batterie d’un nœud mobile à plusieurs interfaces sera rapidement épuisée et le temps d’utilisation de l’équipement sera réduit aussi. Pour prolonger l’utilisation du mobile les standards, des réseaux sans-fils, on définie (individuellement) plusieurs états (émission, réception, sleep, idle, etc.); quand une interface radio n’est pas en mode émission/réception il est en mode sleep/idle où la consommation est très faible, comparée aux modes émission/réception. Pourtant, en cas d’équipement portable à multi-interfaces radio, l’énergie totale consommée par les interfaces en mode idle est très importante. Autrement, un équipement portable équipé de plusieurs interfaces radio augmente sa capacité de connectivité mais réduit sa longévité d’utilisation. Pour surpasser cet inconvénient on propose une plate-forme, qu'on appelle IMIP (Integrated Management of Interface Power), basée sur l’extension du standard MIH (Media Independent Handover) IEEE 802.21 [4]. IMIP permet une meilleure gestion d’énergie des interfaces radio, d’un équipement mobile à multi-radio, lorsque celles-ci entrent en mode idle. Les expérimentations que nous avons exécutées montrent que l’utilisation de IMIP permet d'économiser jusqu'a 80% de l'énergie consommée en comparaison avec les standards existants. En effet, IMIP permet de prolonger la durée d'utilisation d'équipements à plusieurs interfaces grâce à sa gestion efficace de l'énergie.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Investigation of femtosecond laser technology for the fabrication of drug nanocrystals in suspension
Resumo:
La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.
Resumo:
Cette présente recherche vise à défendre le point de vue selon lequel le don de l’Esprit dans le récit de la Pentecôte (Ac 2, 1-13) s’interprète principalement comme l’investissement d’une puissance habilitant au témoignage. À cette fin, nous posons l’hypothèse que le contenu d’Ac 2, 17-21 est un axe fondamental de la théologie pneumatique de l’œuvre lucanienne, lequel interprète la manifestation pentecostale dans une perspective prophétique. La démonstration se fait par le biais d’une analyse rédactionnelle d’Ac 2, 17-21, une citation de Jl 3,1-5 insérée dans un discours explicatif de Pierre du phénomène pentecostal. Nous examinons d’abord le lieu d’inscription de ce passage dans l’œuvre lucanienne afin d’évaluer la valeur stratégique de son emplacement (chapitre 1). Nous étudions ensuite l’interprétation que fait Luc de cette prophétie pour en venir à la conclusion qu’il envisage l’intervention de l’Esprit essentiellement dans une perspective d’habilitation à la prophétie (chapitre 2). Nous vérifions cette première conclusion dans l’Évangile de Luc (chapitre 3); puis ensuite dans les Actes des Apôtres (chapitre 4). Nous en arrivons ainsi à établir un parallélisme entre les étapes initiatiques du ministère de Jésus dans le troisième évangile et celui des disciples dans les Actes, pour y découvrir que, dans les deux cas, l’effusion de l’Esprit habilite à l’activité prophétique. Le ministère des disciples s’inscrit de la sorte dans le prolongement de celui du Maître. Nous soutenons, en fait, que tout le discours pneumatique de l’Évangile de Luc converge vers l’effusion initiale de l’Esprit sur les disciples dans le récit pentecostal, d’une part, et que cette effusion jette un éclairage sur l’ensemble de l’œuvre missionnaire des Actes, d’autre part. Bref, le passage explicatif du phénomène pentecostal, en l’occurrence Ac 2, 17-21, met en lumière un axe central des perspectives de Luc sur l’Esprit : Il s’agit de l’Esprit de prophétie. Dans cette optique, l’effusion de l’Esprit à la Pentecôte s’interpréterait essentiellement comme l’investissement du croyant d’une puissance en vue du témoignage.
Resumo:
Figure majeure de l’histoire des relations coloniales franco-algériennes, l’émir Abdelkader est généralement présenté par ses compatriotes comme le modèle politique, militaire et religieux du résistant au colonialisme français du 19ième siècle. L’historiographie officielle algérienne en véhicule l’image du chef religieux qui a initié al-jihad de résistance conforme aux règles exotériques de la chari’ia. Il est décrit comme un guerrier loyal et magnanime, fin stratège, dont la défaite militaire a paradoxalement marqué la fondation de l’Algérie moderne en tant que Nation et État. La construction sociopolitique postcoloniale de ce mythe a permis de légitimer les différents régimes politiques, qui se sont succédé dans l’Algérie indépendante et qui ont toujours tenu, dans le cadre d’une lecture littérale de l’Islam. Ceci dans le but de taire la dimension spirituelle d’Abdelkader disciple, héritier et commentateur de l’œuvre du magister Magnus soufi, IbnʻArabî. Fascinés dès le début de l’occupation par cet adversaire hors du commun, les français, de plus en plus sécularisés, en ont érigé une image utilitaire, l’aliénant ainsi de ses compatriotes coreligionnaires et le découplant de sa foi islamique. Les mémoires concurrentes de l’ancienne puissance coloniale et de son ex-colonie, l’Algérie, ont généré plusieurs débats contemporains en ce qui a trait à l’écriture de l’histoire de la colonisation. Le personnage d’Abdelkader a été instrumentalisé par les uns et les autres. Deux évènements controversés de sa biographie sont devenus les objets d’une polémique souvent âpre et amère entre auteurs chercheurs algériens et français : l’adhésion de l’émir à la franc-maçonnerie française et sa séparation d’avec celle-ci. Nous allons présenter que la prémisse d’auteurs algériens, selon laquelle Abdelkader n’aurait pas pu adhérer au Grand Orient de France, pour cause d’incompatibilité doctrinale musulmane, est inconsistante. Nous essayerons de démontrer au contraire, que son initiation à la maçonnerie telle qu’elle s’était présentée à lui était en accord avec sa vision soufie et légaliste du dogme islamique. En nous basant sur le choix de la franc-maçonnerie française pour la laïcité au moment de la réception supposée de l’émir dans la fraternité, nous montrerons qu’il s’en éloigna pour des raisons de doctrine islamique. En effet, l’élimination de toute référence déiste des textes constitutifs du Grand Orient de France fut inacceptable pour le musulman qu’était Abdelkader, vaincu militairement mais raffermi spirituellement par sa proximité grandissante avec son maître spirituel IbnʻArabî. L’humanisme des francs-maçons français avait motivé une refondation basée sur les droits de l’homme issus de la révolution française. Tandis que celui de l’émir Abdelkader prenait sa source dans l’Unicité de l’Être, concept-cadre Akbarien de la compréhension de la relation de Dieu avec ses créatures. Nous allons montrer que les polémiques franco-algériennes sur les relations d’Abdelkader avec la franc-maçonnerie française, masquent un autre débat de fond qui dure depuis des siècles dans le monde musulman. Un débat opposant deux herméneutiques légalistes des textes islamiques, l’une exotérique s’incarnant dans l’œuvre du théologien musulman Ibn Taymiyya et l’autre ésotérique se trouvant au cœur des écrits du mystique IbnʻArabî.
Resumo:
Le sujet général de cette thèse est l’étude de la fonctionnalisation covalente des nanotubes de carbone (CNT) et son application en électronique. Premièrement, une introduction au sujet est présentée. Elle discute des propriétés des CNT, des différentes sortes de fonctionnalisation covalente ainsi que des principales techniques de caractérisation utilisées au cours de la thèse. Deuxièmement, les répercussions de la fonctionnalisation covalente sur les propriétés des nanotubes de carbone monoparoi (SWNT) sont étudiées. Deux types de fonctionnalisation sont regardés, soit le greffage de groupements phényles et le greffage de groupements dichlorométhylènes. Une diminution de l’absorption optique des SWNT dans le domaine du visible-proche infrarouge est observée ainsi qu’une modification de leur spectre Raman. De plus, pour les dérivés phényles, une importante diminution de la conductance des nanotubes est enregistrée. Troisièmement, la réversibilité de ces deux fonctionnalisations est examinée. Il est montré qu’un recuit permet de résorber les modifications structurales et retrouver, en majorité, les propriétés originales des SWNT. La température de défonctionnalisation varie selon le type de greffons, mais ne semble pas affectée par le diamètre des nanotubes (diamètre examinés : dérivés phényles, Ømoyen= 0,81 nm, 0,93 nm et 1,3 nm; dérivés dichlorométhylènes, Ømoyen = 0,81 nm et 0,93 nm). Quatrièmement, la polyvalence et la réversibilité de la fonctionnalisation covalente par des unités phényles sont exploitées afin de développer une méthode d’assemblage de réseaux de SWNT. Celle-ci, basée sur l’établissement de forces électrostatiques entre les greffons des SWNT et le substrat, est à la fois efficace et sélective quant à l’emplacement des SWNT sur le substrat. Son application à la fabrication de dispositifs électroniques est réalisée. Finalement, la fonctionnalisation covalente par des groupements phényles est appliquée aux nanotubes de carbone à double paroi (DWNT). Une étude spectroscopique montre que cette dernière s’effectue exclusivement sur la paroi externe. De plus, il est démontré que la signature électrique des DWNT avant et après la fonctionnalisation par des groupements phényles est caractéristique de l’agencement nanotube interne@ nanotube externe.