261 resultados para Principe de non-négation des prémisses


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nous démontrons qu'il est possible de former des bicouches fluides non phospholipides en milieu aqueux avec un mélange d'acide palmitique (PA), cholestérol (Chol) et sulfate de cholestérol (Schol) avec une proportion molaire de 30/28/42. Ces liposomes non phospholipidiques peuvent maintenir un gradient de pH (pHinterne 8 / pHexterne 6) sur une période 100 fois plus longue que les liposomes faits de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphocholine (POPC) et de cholestérol (60/40 mol/mol). De plus, ces LUV non phospholipidiques protègent l'acide ascorbique d'un milieu oxydant (1 mM de fer (III)). Une fois piégé dans les liposomes, l'acide ascorbique présente une vitesse de dégradation similaire à celle obtenue en l'absence de fer(III). Ces performances illustrent la perméabilité exceptionnellement limitée de ces liposomes, ce qui implique qu'ils peuvent présenter des avantages comme nanocontenants pour certaines applications. D'autre part, des vésicules unilamellaires géantes (GUV pour Giant Unilamellar Vesicles) ont été formées à partir d'un mélange d'acide palmitique et de cholestérol (30/70 mol/mol). Ces GUV sont stables sur l'échelle de temps de semaines, elles ne s'agrègent pas et elles sont sensibles au pH. Afin d'établir la formation des GUV, l'imagerie par microscopie confocale à balayage laser a été utilisée. Deux sondes fluorescentes ont été utilisées: le rouge du Nile, une sonde hydrophobe qui s'insère dans le cœur hydrophobe des bicouches lipidiques, et la calcéine, une sonde hydrophile qui a été emprisonné dans le réservoir interne des GUV. Cette approche a permis l'observation des parois des GUV ainsi que de leur contenu. Ces résultats montrent la possibilité de former de nouveaux microcontenants à partir d'un mélange d'un amphiphile monoalkylé et de stérol.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La régulation de l’homéostasie du fer est cruciale chez les bactéries. Chez Salmonella, l’expression des gènes d’acquisition et du métabolisme du fer au moment approprié est importante pour sa survie et sa virulence. Cette régulation est effectuée par la protéine Fur et les petits ARN non codants RfrA et RfrB. Le rôle de ces régulateurs est d’assurer que le niveau de fer soit assez élevé pour la survie et le métabolisme de Salmonella, et assez faible pour éviter l’effet toxique du fer en présence d’oxygène. Les connaissances concernant le rôle de ces régulateurs ont été principalement obtenues par des études chez S. Typhimurium, un sérovar généraliste causant une gastro-entérite chez les humains. Très peu d’informations sont connues sur le rôle de ces régulateurs chez S. Typhi, un sérovar humain-spécifique responsable de la fièvre typhoïde. Le but de cette étude était de déterminer les rôles de Fur, RfrA et RfrB dans l’homéostasie du fer et la virulence de Salmonella, et de démontrer qu’ils ont une implication distincte chez les sérovars Typhi et Typhimurium. Premièrement, Fur, RfrA et RfrB régulent l’homéostasie du fer de Salmonella. Les résultats de cette étude ont démontré que Fur est requis pour la résistance au stress oxydatif et pour une croissance optimale dans différentes conditions in vitro. La sensibilité du mutant fur est due à l’expression des petits ARN RfrA et RfrB, et cette sensibilité est beaucoup plus importante chez S. Typhi que chez S. Typhimurium. Également, Fur inhibe la transcription des gènes codant pour les sidérophores en conditions riches en fer, tandis que les petits ARN RfrA et RfrB semblent être importants pour la production d’entérobactine et de salmochélines chez S. Typhi lors de conditions pauvres en fer. Ensuite, ces régulateurs affectent la virulence de Salmonella. Fur est important pour la motilité de Salmonella, particulièrement chez S. Typhi. Fur est nécessaire pour l’invasion des deux sérovars dans les cellules épithéliales, et pour l’entrée et la survie de S. Typhi dans les macrophages. Chez S. Typhimurium, Fur ne semble pas impliqué dans l’interaction avec les macrophages. De plus, les petits ARN RfrA et RfrB sont importants pour la multiplication intracellulaire de Salmonella dans les macrophages pour les deux sérovars. Finalement, la protéine Fur et les petits ARN RfrA et RfrB régulent l’expression de l’opéron fimbriaire tcf, absent du génome de S. Typhimurium. Un site de liaison putatif de la protéine Fur a été identifié dans la région promotrice de tcfA chez S. Typhi, mais une régulation directe n’a pas été confirmée. L’expression de tcf est induite par le fer et par Fur, et est inhibée par les petits ARN RfrA et RfrB. Ainsi, ces régulateurs affectent des gènes de virulence qui sont retrouvés spécifiquement chez S. Typhi. En somme, ce projet a permis de démontrer que les régulateurs de l’homéostasie du fer de Salmonella peuvent affecter la résistance de cette bactérie pathogène à différents stress, notamment le stress oxydatif, la croissance en conditions de carence en fer ainsi que la virulence. Ces régulateurs jouent un rôle distinct chez les sérovars Typhi et Typhimurium.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'objectif de ce mémoire est de comprendre la neutralité axiologique non pas comme une exigence épistémologique, mais plutôt comme un idéal éducationnel. Max Weber propose une science basée sur la description factuelle, de laquelle on exclut la formulation de jugements de valeur. Pour l'auteur, il est préférable de séparer les jugements descriptifs des jugements évaluatifs dans le but de préserver l'autonomie intellectuelle des étudiants. Comme il serait contraire au principe d'autonomie de laisser le professeur influencer et convaincre ses étudiants, de façon partisane, d'adhérer à certaines thèses normatives, Weber propose un mécanisme pour éviter que le professeur n'influence ses étudiants de manière illégitime. Les critiques contemporaines de la neutralité axiologique, en particulier celles de Sen et Putnam, voient dans le critère de neutralité un rejet de l'entrelacement logique des faits et des valeurs. Ils critiquent la supposée subjectivité des valeurs et, ce faisant, défendent une conception enrichie de la science où les valeurs éthiques sont présentes. Weber n'a jamais défendu qu'il était impossible de mener une analyse à la fois descriptive et normative. Seulement, on doit s'interroger sur les lieux où s'exprime la normativité, et s'assurer que toutes les conditions sont présentes pour qu'une discussion normative tende réellement à l'objectivité.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les protéines amyloïdes sont retrouvées sous forme de fibres dans de nombreuses maladies neurodégénératives. En tentant d’élucider le mécanisme de fibrillation, les chercheurs ont découvert que cette réaction se fait par un phénomène de nucléation passant par des oligomères. Il semblerait que ces espèces soient la principale cause de la toxicité observée dans les cellules des patients atteints d’amyloïdose. C’est pourquoi un intérêt particulier est donc porté aux premières étapes d’oligomérisation. Dans ce mémoire, nous nous intéressons à une séquence d’acide aminé fortement hydrophobe de l’α-synucléine appelée composante non β -amyloïde (Non-Amyloid β Component ou NAC). Cette dernière est retrouvée sous forme de fibres dans les corps et les neurites de Lewy des patients atteints de la maladie de Parkinson. De plus, elle constitue une composante minoritaire des fibres impliquées dans la maladie d’Alzheimer. Nous avons observé les changements structuraux qui ont lieu pour le monomère, le dimère et le trimère de la séquence NAC de l’α-synucléine. Nous nous sommes aussi intéressés aux conséquences structurelles observées dans des oligomères hétérogènes qui impliqueraient, Aβ1−40. Pour cela nous utilisons des dynamiques moléculaires, d’échange de répliques couplées au potentiel gros-grain, OPEP. Nous constatons une disparition des hélices α au profit des feuillets β , ainsi que le polymorphisme caractéristique des fibres amyloïdes. Certaines régions se sont démarquées par leurs capacités à former des feuillets β . La disparition de ces régions lorsque NAC est combinée à Aβ laisse entrevoir l’importance de l’emplacement des résidus hydrophobes dans des structures susceptibles de former des fibres amyloïdes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le transport actif de sodium par les cellules épithéliales alvéolaires est le principal mécanisme impliqué dans la régulation du niveau de liquide dans le poumon distal. Le canal épithélial sodique (ENaC) exprimé par les cellules épithéliales alvéolaires est essentiel à la résorption du liquide des poumons à la naissance ainsi que la résolution de l'œdème pulmonaire chez l'adulte. L'activité et l'expression du canal ENaC sont modulées par de nombreux stress pathophysiologiques. L'inflammation pulmonaire constitue un facteur important dans l'inhibition de l'expression du canal ENaC et pourrait favoriser la formation d'œdème pulmonaire. Nous avons précédemment démontré que différentes cytokines pro-inflammatoires, ainsi que les lipopolysaccharides (LPS) de Pseudomonas aeruginosa, inhibent l'expression de l'ARNm αENaC par des mécanismes de régulation transcriptionnelle et post-transcriptionnelle. Ces résultats suggèrent que les mécanismes qui modulent la stabilité des ARNm αENaC pourraient jouer un rôle important dans la régulation du niveau d’expression du transcrit en condition inflammatoire. Le principal objectif de mes travaux était de caractériser les mécanismes de modulation de l’ARNm αENaC dans les cellules épithéliales alvéolaires lors de différents stress pathophysiologiques et déterminer si cette modulation pouvait s’expliquer en partie par une régulation de la stabilité du transcrit. Mes travaux montrent que les LPS et la cycloheximide inhibent l’expression de l’ARNm αENaC de façon similaire via l’activation des voies de signalisation des MAPK ERK1/2 et p38. Cependant, les mécanismes de modulation de l’expression de l'ARNm αENaC sont différents puisque les LPS répriment la transcription du gène, alors que la cycloheximide diminuerait la stabilité du transcrit via des mécanismes post-transcriptionnels impliquant la région 3' non traduite (3'UTR) de l'ARNm αENaC. Pour mieux étudier le rôle du 3'UTR dans ce processus, nous avons développé un modèle Tet-Off nous permettant de mesurer la demi-vie de l’ARNm αENaC indépendamment de l’utilisation d’un inhibiteur de la transcription comme l'actinomycine D (Act. D). Nous avons montré que la demi-vie de l’ARNm αENaC était de 100min, un temps beaucoup plus court que celui rapporté dans la littérature. Nous avons démontré que l’Act. D a un effet stabilisateur important sur l’ARNm αENaC et qu’il ne peut être utilisé pour évaluer la stabilité du transcrit. À l’aide de différents mutants de délétion, nous avons entrepris de déterminer la nature des régions du 3’UTR impliquées dans la modulation de la stabilité du transcrit. Nous avons trouvé que le 3’UTR joue un rôle à la fois de stabilisation (région 3’UTR proximale) et de déstabilisation (région 3’UTR distale) du transcrit. Notre système nous a finalement permis de confirmer que la diminution de l’ARNm αENaC observée en présence de TNF-α s’expliquait en partie par une diminution importante de la stabilité du transcrit induite par cette cytokine. Enfin, nous avons identifié la nature des protéines pouvant se lier au 3’UTR de l’ARNm αENaC et déterminé lesquelles pouvaient moduler la stabilité du transcrit. Des trois protéines candidates trouvées, nous avons confirmé que la surexpression de DHX36 et TIAL1 diminue le niveau de transcrit par un mécanisme impliquant la stabilité du messager. Les travaux présentés ici montrent la complexité des voies de signalisation induites par différents stress sur les cellules épithéliales alvéolaires et montrent comment la stabilité de l’ARNm αENaC et en particulier, les séquences du 3’UTR jouent un rôle important dans la modulation du niveau de transcrit. Le modèle Tet-Off que nous avons développé permet d’estimer le temps de demi-vie réel de l’ARNm αENaC et montre que le 3’UTR du messager joue un rôle complexe dans la stabilisation du messager en condition de base ainsi qu’en condition pro-inflammatoire. Enfin, nous avons identifié deux protéines liant l’ARNm qui pourraient jouer un rôle important dans la modulation de la stabilité du transcrit.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les programmes éducatifs de jardinage alimentaire avec les jeunes offrent l’opportunité d’agir sur leurs connaissances nutritionnelles, préférences pour des légumes, sentiment d'efficacité personnelle à consommer des fruits et légumes, envie d'y goûter et leur consommation. Dans ces activités, certains obstacles peuvent freiner l'éducation alimentaire et nutritionnelle faite par des animateurs qui ne sont pas professionnels de la nutrition ou de la santé. Le présent projet consistait à développer un volet alimentaire et nutritionnel éducatif pour les "Jardins-jeunes" (JJ), un camp d'été en jardinage du Jardin botanique de Montréal, à offrir une courte formation en nutrition à ses animatrices, puis à évaluer leurs niveaux d'intérêt et de confiance personnelle à intégrer ce volet à l'édition 2013. Les méthodes d'évaluation auprès des animatrices comprenaient des entrevues de groupe, des questionnaires et une observation-terrain. La taille d'échantillon permettait uniquement une analyse qualitative des résultats. La formation semble avoir maintenu ou élevé les niveaux de confiance et de connaissances des animatrices sur plusieurs sujets alimentaires et nutritionnels. Les animatrices évoquent que les trois activités de trente minutes en alimentation et nutrition, intégrées aux JJ 2013, auraient favorisé l'éducation nutritionnelle, qui par ailleurs, fut limitée par manque de temps. Elles rapportent avoir perçu des effets positifs du programme sur les connaissances, attitudes et comportements alimentaires des jeunes. Nos résultats suggèrent qu'un volet d’éducation alimentaire et nutritionnelle peut être intégré à un programme de jardinage par des animateurs non spécialisés dans ces domaines, outillés et encadrés pour se sentir motivés et confiants dans leur rôle.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'objectif poursuivi dans ce mémoire est de montrer que le néo-républicanisme possède les outils les plus efficaces pour penser la réconciliation des droits individuels, fondement des États de droits occidentaux contemporains, et des droits collectifs que peuvent légitimement réclamer les collectivités nationales. Dans cette visée, et comme de nombreux auteurs libéraux se sont attaqués à cette question dans les dernières décennies, j'expose d'abord trois stratégies libérales pour traiter cette possible réconciliation tout en faisant ressortir leurs faiblesses respectives. J'avance qu'aucune de ces stratégies ne permet vraiment de comprendre comment un régime de droits collectifs et un régime de droits individuels peuvent être articulés de façon cohérente. J'argue ensuite que le néo-républicanisme, parce qu'il comprend la liberté non pas comme l'absence d'interférence, mais comme un statut de non-domination, permet de voir que les droits collectifs des groupes nationaux et les droits individuels sont nécessairement compatibles, parce qu'ils s'organisent en fonction du même idéal. Les droits d'un individu et ceux de sa collectivité nationale sont, d'une certaine manière, les deux faces d'une même médaille, la non-domination individuelle dépendant de la non-domination du groupe national auquel l'individu appartient. En dernier lieu, je soutiens que cette compréhension du rapport entre les deux régimes de droits devrait se traduire par un ensemble de mesures institutionnelles concrètes dont la plus importante est la reconnaissance d'un droit, pour les collectivités nationales, à l'autodétermination.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le syndrome douloureux régional complexe (SDRC) est un trouble neurologique qui se caractérise par des douleurs intenses, des troubles vasomoteurs, sudomoteurs, moteurs et trophiques, accompagnés d’un œdème au niveau du membre affecté. Malgré la présence de peu de données en faveur, à cause de l’absence d’un traitement clé du SDRC, le blocage sympathique a été utilisé depuis de nombreuses années pour traiter ce syndrome. Objectif Le but principal de ce projet est d’étudier l’effet antalgique de la néostigmine utilisée comme adjuvant à la bupivacaïne lors d’un bloc stellaire dans le traitement du syndrome douloureux régional complexe du membre supérieur. Méthodes Il s’agit d’une étude pilote, randomisée en double insu. L’intensité de la douleur a été évaluée en utilisant l’échelle numérique. La force de préhension aux deux mains a été estimée par dynamométrie de Jamar. La dextérité fine des doigts a été mesurée par le « Purdue Pegboard Test ». L’œdème au niveau de la main a été déterminé par la volumétrie. Le questionnaire « SF-36 » a été utilisé afin de déterminer l’homogénéité des échantillons. Résultats Notre étude a eu des difficultés à établir l’efficacité de la thérapie par bloc stellaire dans le traitement du syndrome douloureux régional complexe. Conclusion Notre recherche n’a pu prouver l’hypothèse que le traitement de la douleur dans le SDRC du membre supérieur par un bloc stellaire est plus efficace quand l’action de l’anesthésique local est potentialisée par l’ajout de la néostigmine.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cet article a paru pour la première fois dans la Revue de droit de McGill.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.