136 resultados para Doute


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse est d’élucider l’intention, la pertinence et la cohérence de l’appropriation par Heidegger des concepts principaux de la philosophie pratique aristotélicienne dans ses premiers cours. Notre analyse portera principalement sur les notions clefs d’energeia et de phronēsis. La première section de la thèse est préparatoire : elle est consacrée à une analyse étroite des textes pertinents de l’Éthique à Nicomaque, mais aussi de la Métaphysique, en discussion avec d’autres commentateurs modernes. Cette analyse jette les fondations philologiques nécessaires en vue d’aborder les audacieuses interprétations de Heidegger sur une base plus ferme. La deuxième et principale section consiste en une discussion de l’appropriation ontologique de l’Éthique à Nicomaque que Heidegger entreprend de 1922 à 1924, à partir des textes publiés jusqu’à ce jour et en portant une attention spéciale à Métaphysique IX. Le résultat principal de la première section est un aperçu du caractère central de l’energeia pour le projet d’Aristote dans l’Éthique à Nicomaque et, plus spécifiquement, pour sa compréhension de la praxis, qui dans son sens original s’avère être un mode d’être des êtres humains. Notre analyse reconnaît trois traits essentiels de l’energeia et de la praxis, deux desquels provenant de l’élucidation aristotélicienne de l’energeia dans Métaphysique IX 6, à savoir son immédiateté et sa continuité : energeia exprime l’être comme un « accomplissement immédiat mais inachevé ». L’irréductibilité, troisième trait de l’energeia et de la praxis, résulte pour sa part de l’application de la structure de l’energeia à la caractérisation de la praxis dans l’Éthique à Nicomaque, et du contraste de la praxis avec la poiēsis et la theōria. Ces trois caractéristiques impliquent que la vérité pratique ― la vérité de la praxis, ce qui est l’ « objet » de la phronēsis ― ne peut être à proprement parler possédée et ainsi transmise : plus qu’un savoir, elle se révèle surtout comme quelque chose que nous sommes. C’est ce caractère unique de la vérité pratique qui a attiré Heidegger vers Aristote au début des années 1920. La deuxième section, consacrée aux textes de Heidegger, commence par la reconstruction de quelques-uns des pas qui l’ont conduit jusqu’à Aristote pour le développement de son propre projet philosophique, pour sa part caractérisé par une profonde, bien qu’énigmatique combinaison d’ontologie et de phénoménologie. La légitimité et la faisabilité de l’appropriation clairement ontologique de l’Éthique à Nicomaque par Heidegger est aussi traitée, sur la base des résultats de la première section. L’analyse de ces textes met en lumière la pénétrante opposition établie par Heidegger entre la phronēsis et l’energeia dans son programmatique Natorp Bericht en 1922, une perspective qui diverge fortement des résultats de notre lecture philologique d’Aristote dans la première section. Cette opposition est maintenue dans nos deux sources principales ― le cours du semestre d’hiver 1924-25 Platon: Sophistes, et le cours du semestre d’été 1924 Grundbegriffe der aristotelischen Philosophie. Le commentaire que Heidegger fait du texte d’Aristote est suivi de près dans cette section: des concepts tels que energeia, entelecheia, telos, physis ou hexis ― qui trouvent leur caractérisation ontologique dans la Métaphysique ou la Physique ― doivent être examinés afin de suivre l’argument de Heidegger et d’en évaluer la solidité. L’hypothèse de Heidegger depuis 1922 ― à savoir que l’ontologie aristotélicienne n’est pas à la hauteur des aperçus de ses plus pénétrantes descriptions phénoménologiques ― résulte en un conflit opposant phronēsis et sophia qui divise l’être en deux sphères irréconciliables qui auraient pour effet selon Heidegger de plonger les efforts ontologiques aristotéliciens dans une impasse. Or, cette conclusion de Heidegger est construite à partir d’une interprétation particulière de l’energeia qui laisse de côté d’une manière décisive son aspect performatif, pourtant l’un des traits essentiels de l’energeia telle qu’Aristote l’a conçue. Le fait que dans les années 1930 Heidegger ait lui-même retrouvé cet aspect de l’energeia nous fournit des raisons plus fortes de mettre en doute le supposé conflit entre ontologie et phénoménologie chez Aristote, ce qui peut aboutir à une nouvelle formulation du projet heideggérien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rapport occidental moderne au sacré s’est transformé de façon importante au 20e siècle avec le processus de sécularisation. Cette désagrégation d’un sacré traditionnel laisse un vide – principalement existentiel et spirituel – là où auparavant certains contenus associés au sacré permettaient de se positionner dans et face à l’universel, c’est-à-dire d’occuper une place dans le monde et les institutions qui l’organisent et d’investir cette place d’un sens compris, accepté et partagé autant individuellement que collectivement. De toute évidence, un tel processus d’effritement ne s’opère pas sans restes et la littérature est un espace qui recueille ces vestiges d’un sacré en transformation, d’un sacré qui fait l’objet d’une quête. L’écriture de Cioran représente un lieu exemplaire où sont concentrés ces vestiges et elle est aussi l’outil ou le médium par lequel la quête s’effectue. Son écriture tiraillée, pétrie d’un malaise existentiel et d’un doute profond, témoigne d’un refus, pensé comme une incapacité, à souscrire aux visions traditionnelles, surannées, du sacré. Généralement considérée par la critique comme inclassable – ni tout à fait philosophique, ni tout à fait littéraire – l’œuvre de Cioran souligne pourtant l’importance de la littérature comme modalité de l’esprit. Cette œuvre met en lumière le rôle de la littérature pour la pensée dans la mesure où elle est un espace qui permet d’accueillir la pensée en quête d’un sacré hors-cadre, en même temps qu’elle se fait le moyen d’une recherche plus libre, plus personnelle, du sacré. La littérature devient donc le réceptacle autant que le moyen d’une quête pleinement existentielle, une quête qui n’est ni représentée ni confessée, mais bien mise en scène, c’est-à-dire dramatisée. Le « je » qu’on retrouve partout dans l’œuvre de Cioran n’est pas le « je » d’une confession, mais bien un « je » narratif qui n’équivaut pas au « je » de l’écrivain. C’est précisément dans le décalage lié à la dramatisation qu’apparaît le paradoxe propre au savoirparticulier que porte la littérature: soit ce caractère personnel, incarné, particulier qui devient le véhicule d’une expérience universelle dans la mesure où elle a le pouvoir ou le potentiel d’abriter l’expérience personnelle d’un lecteur qui performe, pour lui-même, le texte. En ce sens, écriture et lecture sont """! imbriquées, comme deux faces d’une même réalité, dans cette quête d’un sacré qui se produit chez Cioran dans un espace d’exception, en dehors des institutions. À partir de l’exemplarité de l’œuvre cioranienne, cette thèse propose une réflexion qui porte sur la littérature comme mode d’inscription des vestiges du sacré ainsi que comme manifestation et moyen d’une quête d’un sacré débarrassé des balises institutionnelles, et qui tente de mettre en lumière le type de savoir propre à la littérature sous l’angle précis de la dramatisation littéraire dans le contexte particulier de cette quête.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une étude de cas dans le domaine des politiques publiques, et porte sur la lutte à la pauvreté et à l’exclusion sociale en Irlande. L’Irlande a réussi l’exploit de diminuer de façon spectaculaire la pauvreté et l’exclusion sociale durant la décennie 1997-2006 et bien que son développement économique fut sans doute tout aussi spectaculaire, celui-ci n’explique pas entièrement ce résultat, tout comme il ne rend pas compte de l’engagement politique qui a amené le gouvernement irlandais à faire de la réduction de la pauvreté un objectif important. Le mémoire cherche à définir et à identifier les facteurs qui ont contribué à l’émergence de cette orientation politique. Comme il s’agit d’une étude de cas, la démarche de recherche se situe dans l’horizon des méthodes qualitatives. La variable dépendante est donc la conception et la mise en œuvre d’un nouvel ensemble de politiques sociales, centrées sur la réduction de la pauvreté. L’explication proposée met l’accent sur les idées, les intérêts et les institutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La planification intégrée du développement urbain et des transports durables est aujourd’hui cruciale au double impératif d’une plus grande maîtrise des déplacements automobiles et d’une diminution de la « dépendance automobile », éléments essentiels au développement durable des grandes métropoles. La présente recherche visait l‘approfondissement des connaissances sur l‘évolution récente de la forme urbaine dans les trois régions métropolitaines canadiennes de Toronto, Montréal et Vancouver, sous l’angle particulier de l’intégration « forme urbaine – transports durables ». Notre stratégie de recherche a consisté en l’élaboration d’un cadre d‘analyse qui devait permettre une opérationnalisation complète du paradigme d‘aménagement à l‘étude ainsi qu’une évaluation de sa mise en œuvre. Ce cadre tire parti des opportunités analytiques qu‘offrent les systèmes d‘information géographique (SIG) ainsi que certains outils Internet courants de « visite virtuelle des lieux » tel que Google Earth. Il en est résulté une approche méthodologique originale, multidimensionnelle et multi-échelle. Son application a permis des analyses particulières de la forme urbaine pour chacune des trois régions cibles, structurées selon trois axes principaux : leur performance globale (autour de 2006), leur performance en périphérie métropolitaine ainsi que l’évolution de leur performance entre 2001 et 2006. De nos analyses comparatives, Vancouver se démarque avec des performances supérieures pour les trois axes, tout particulièrement pour l‘évolution de ses performances. Montréal arrive quant à elle troisième, en raison notamment de sa faible performance en périphérie. Globalement, les trois régions métropolitaines affichent de faibles niveaux d’intégration entre la forme urbaine et les réseaux de transport durable et souffrent d’une grande dépendance automobile structurelle, particulièrement en leur périphérie. Par ailleurs, en dépit d’objectifs de planification adéquats, les déficiences de leur forme urbaine et leurs progrès relativement modestes laissent présager une prédominance de la dépendance automobile qui perdurera au cours des prochaines années. Il nous apparaît primordial que tous les acteurs du domaine public fassent preuve d‘une plus grande « lucidité », voire maturité, face aux lourds constats exposant la difficile mise en œuvre de leurs objectifs ainsi que la dichotomie entre ce qui « se passe sur le terrain » et le contenu de leurs politiques. Une première étape obligée vers un raffinement des politiques et, peut-être, vers leur plus grande efficacité passe sans doute par la pleine reconnaissance des limites du paradigme d’aménagement actuel et de l‘immense défi que représente un inversement des tendances. Cela implique notamment une plus grande transparence en matière d‘évaluation des politiques ainsi que des efforts communs pour le développement et la diffusion de données de qualité dans les domaines connexes de la forme urbaine et des transports urbains, de meilleurs outils de monitoring, etc., qui pourraient aider à instituer une nouvelle synergie entre tous les acteurs impliqués tant dans la recherche urbaine, le développement urbain que les politiques d’aménagement et de transport. Le raffinement de notre propre approche méthodologique pourrait aussi bénéficier de telles avancées, approche qui constitue une des avenues possibles pour la poursuite de l‘exploration de l‘enjeu de l‘intégration « forme urbaine – transports durables » dans les régions métropolitaines canadiennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’approche des capabilités a été caractérisée par un développement fulgurant au cours des vingt-cinq dernières années. Bien que formulée à l’origine par Amartya Sen, détenteur du Prix Nobel en économie, Martha Nussbaum reprit cette approche dans le but de s’en servir comme fondation pour une théorie éthico-politique intégrale du bien. Cependant, la version de Nussbaum s’avéra particulièrement vulnérable à plusieurs critiques importantes, mettant sérieusement en doute son efficacité globale. À la lumière de ces faits, cette thèse vise à évaluer la pertinence théorique et pratique de l’approche des capabilités de Nussbaum, en examinant trois groupes de critiques particulièrement percutantes formulées à son encontre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe actuellement des différends frontaliers entre les États circumpolaires-Nord qui entravent la bonne gouvernance de la région. Afin d'identifier des pistes de solution pour améliorer la gouvernance en Arctique et faciliter la coopération, nous analysons le processus qui a mené, à l'autre pôle, à la création du Traité sur l’Antarctique de 1959. Nous utilisons une approche néolibérale institutionnelle comme cadre théorique ainsi qu’une méthodologie basée sur le traçage de processus. Nous avons identifié quatre variables (les intérêts des États, le contexte politique, le leadership, et l’Année géophysique internationale [AGI]) que nous avons étudiés au cours de trois périodes historiques et dont l’évolution a contribué à la formation du régime antarctique. Les étapes menant à l'élaboration d'un régime identifié dans la théorie institutionnaliste dynamique de Frischmann s'appliquent aux différentes périodes que nous avons déterminées. La première période historique correspond à l'identification du problème d'interdépendance. Les États ont d’abord tenté d’assouvir leurs intérêts particuliers envers le continent antarctique par l’intermédiaire de stratégies individuelles. Le statut imprécis du continent antarctique caractérisé par des revendications territoriales conflictuelles, la volonté des superpuissances d’effectuer d’éventuelles revendications territoriales et le leadership exercé par les États-Unis ont toutefois permis de faire évoluer les États vers des stratégies coopératives. La deuxième période historique correspond à l'étape de la négociation de l’entente. Le leadership d’un groupe de scientifiques et des États-Unis ainsi que le contexte politique de la Guerre froide ont favorisé la cohésion des États intéressés par les affaires antarctiques et leur investissement dans une coopération multilatérale souple dans le cadre d’un événement ponctuel, l’AGI. La troisième période correspond à la mise en oeuvre de l’entente, soit l’AGI. Lors de cet événement, une entente tacite, un engagement d’honneur, qui suspendait les considérations territoriales en Antarctique, a été respectée par les parties. La coopération dans le cadre de l’AGI s’est avérée un succès. Les États se sont montrés satisfaits des gains que comportait la coopération scientifique dans un environnement pacifique. L’AGI a permis aux États d’expérimenter la coopération multilatérale et d’observer le comportement des autres participants au sein de l’institution. En raison de la satisfaction des États vis-à-vis la coopération dans le cadre de l'entente souple, l'élaboration du traité de 1959 a été facilitée. Notre étude nous a permis d’identifier des éléments clefs qui ont favorisé la formation du régime antarctique et qui pourraient servir d’inspiration pour l'élaboration de futurs régimes. La présence d’un leadership tout au long du processus a permis de promouvoir les avantages de la coopération sous différentes formes et de renforcer les relations entre les États présents dans les affaires antarctiques. La réalisation d'une entente souple dans le cadre de l'AGI, centrée autour des intérêts communs aux parties, comprenant un engagement d’honneur, permettant de mettre de côté les points de discorde, ont aussi été des points centraux dans la réussite et la poursuite de la coopération au-delà de l’AGI. Cette approche graduelle allant du droit souple vers le droit contraignant est sans aucun doute l’élément le plus important ayant facilité le rapprochement des différentes parties et éventuellement la création du Traité sur l’Antarctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Même si le mot est ancien, la référence à la notion de document est récente dans l'Histoire, sans doute en résonance avec l'organisation de la société industrielle, sa régulation et ses valeurs. Au tournant du millénaire, le web s'est appuyé sur un renversement du circuit documentaire, jusqu'à, dans le web de données, un court-circuitage radical. S'agit-il de l'effacement d'une notion périmée au profit d'une autre ou d'un simple décalage ? Le succès du web accompagne des transformations sociales et économiques profondes. Quelles seront alors, sur nos régimes de vérité, de preuve et de transmission, les conséquences de l'éventuelle obsolescence de la notion de document ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On ne compte plus le nombre de représentations ou d’adaptations sur la scène ou à l’écran de la pièce de théâtre d’Edmond Rostand, Cyrano de Bergerac. Celle-ci a bénéficié d’un succès considérable en France et dans le monde, de la date de sa première représentation, le 28 décembre 1897, jusqu’à nos jours. Son héros, Cyrano de Bergerac, s’appuie librement sur l’écrivain réel, Savinien de Cyrano de Bergerac, qui vécut au XVIIe siècle mais dont pratiquement plus personne ne connaît l’existence. Aujourd’hui, tout le monde éprouve admiration et tendresse à l’égard du duelliste au grand nez qui, par ses lettres amoureuses, aide le beau Christian à conquérir le cœur de Roxane; mais nul ne lit plus Savinien de Cyrano de Bergerac. Sans doute la pièce de Rostand possède-t-elle de réelles valeurs littéraires, une construction rigoureuse, des personnages élaborés, une écriture poétique et légère, de l’humour, de l’émotion… Et cependant, malgré ces qualités indéniables, il demeure difficile d’expliquer son triomphe. Nous posons l’hypothèse selon laquelle, c’est à la manière dont Edmond Rostand a fait de Cyrano de Bergerac un mythe littéraire entouré de symboles propres à une identité dans laquelle les Français sont susceptibles de se reconnaître - et grâce aussi à un contexte sociopolitique dont il a réussi, volontairement ou pas, à tirer grand parti - qu’est attribuable le succès démesuré de la pièce. Rostand a créé un évangile de cape et d’épée sur fond d’Affaire Dreyfus pour un univers théâtral qui intègre les symboles autour desquels les Français se retrouvent volontiers : gastronomie, élégance, faconde, galanterie, fidélité, honneur, patriotisme, … panache.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En démontrant sa capacité d’identifier les pneumothorax, de différencier les différentes causes d’insuffisance respiratoire chez les patients dyspnéiques et de confirmer la position d’un tube endotrachéal lors d’une intubation endotrachéale, l’échographie pulmonaire a pris une place prépondérante dans la prise en charge des patients de soins critiques. La majorité des études, notamment celles sur l’intubation endotrachéale, ont évalué la performance de cliniciens possédant une expérience considérable en échographie pulmonaire et souvent dans un cadre idéal permettant des examens d’une durée prolongée. Considérant la disponibilité grandissante de l’échographie ciblée lors des situations de stabilisation et de réanimation des patients de soins critiques, nous voulions évaluer la capacité d’un groupe de clinicien hétérogène en termes de formation échographique à identifier la présence ou l’absence de glissement pleural sur de courtes séquences (comparable à la durée probable d’un examen lors de condition de réanimation) d’échographie pulmonaire enregistrées chez des patients intubés. Un total de 280 courtes séquences (entre 4 et 7 secondes) d’échographie pulmonaire démontrant la présence ou l’absence de glissement pleural chez des patients intubés en salle d’opération ont été enregistrées puis présentées de façon aléatoire à deux groupes de cliniciens en médecine d’urgence. Le deuxième groupe avait la possibilité de s’abstenir advenant une incertitude de leur réponse. Nous avons comparé la performance selon le niveau de formation académique et échographique. Le taux moyen d’identification adéquate de la présence ou l’absence du glissement pleural par participant était de 67,5% (IC 95% : 65,7-69,4) dans le premier groupe et 73,1% (IC 95% : 70,7-75,5) dans le second (p<0,001). Le taux médian de réponse adéquate pour chacune des 280 séquences était de 74,0% (EIQ : 48,0-90,0) dans le premier groupe et 83,7% (EIQ : 53,3-96,2) dans le deuxième (p=0,006). Le taux d’identification adéquate de la présence ou absence d’un glissement pleural par les participants des deux groupes était nettement supérieur pour les séquences de l’hémithorax droit par rapport à celles de l’hémithorax gauche (p=0,001). Lorsque des médecins de formation académique et échographique variable utilisent de courtes séquences d’échographie pulmonaire (plus représentatives de l’utilisation réelle en clinique), le taux d’identification adéquate de la présence ou l’absence de glissement pleural est plus élevé lorsque les participants ont la possibilité de s’abstenir en cas de doute quant à leur réponse. Le taux de bonnes réponses est également plus élevé pour les séquences de l’hémithorax droit, probablement dû à la présence sous-jacente du cœur à gauche, la plus petite taille du poumon gauche et l’effet accru du pouls pulmonaire dans l’hémithorax gauche. Considérant ces trouvailles, la prudence est de mise lors de l’utilisation de l’identification du glissement pleural sur de courtes séquences échographique comme méthode de vérification de la position d’un tube endotrachéal lors d’une intubation endotrachéale, et ce, particulièrement pour l’hémithorax gauche. Aussi, une attention particulière devrait être mise sur la reconnaissance du pouls pulmonaire lors de l’enseignement de l’échographie pulmonaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte actuel de l’éducation, l’enfant est davantage placé au cœur des relations entre la famille, l’école et la communauté, et les parents sont invités à accompagner leur enfant tout au long de son parcours scolaire. Quant aux enseignants, ils sont conviés à collaborer de façon systématique avec les familles. La collaboration entre les enseignants et les parents devient donc une condition essentielle à la réussite scolaire des élèves, notamment avec ceux qui éprouvent des difficultés d’apprentissage. Actuellement, dans nos écoles, la collaboration se situe principalement au niveau des communications obligatoires de base prescrites par le Régime pédagogique. En ce sens, Kalubi et Lesieux (2006) soulignent que le partenariat tant souhaité dans les documents officiels des ministères concernés ne transparaît pas toujours dans les pratiques quotidiennes. D’ailleurs, la littérature scientifique montre qu’il existe de nombreux obstacles liés à la collaboration école-famille-communauté, tout particulièrement lorsqu’il s’agit d’entretenir des relations harmonieuses avec les parents d’élèves à risque. À cet égard, une plus grande participation parentale est sollicitée en vue d’intensifier la collaboration entre l’école et la famille. Effectivement, les enseignants désirent que les parents s’impliquent davantage auprès de leur enfant dans les travaux et les devoirs à la maison et, du côté des parents, ils se demandent souvent comment agir pour aider encore mieux leurs enfants dans leur apprentissage (Gouvernement du Québec, 2000). Le plan d’intervention est un outil reconnu par les milieux scolaires pour aider l’élève à risque dans son cheminement scolaire puisqu’il sollicite la participation des parents et encourage la collaboration école-famille-communauté. De fait, il s’inscrit dans une démarche dynamique et prend appui sur une vision systémique de la situation de l’élève, ce qui permet de mieux identifier les besoins de l’élève à risque et d’y répondre adéquatement (Gouvernement du Québec, 2004). En prolongement à ce que l’on connaît déjà sur la participation parentale et la collaboration école-famille-communauté, nous orientons cette recherche sur les perceptions et les attentes d’enseignants au primaire en classe ordinaire et de parents d’élèves à risque à l’égard de la participation parentale et de la collaboration école-famille dans le cadre de l’élaboration et du suivi du plan d’intervention. Cette étude emprunte une approche de recherche qualitative de type exploratoire et elle est menée auprès de huit enseignants au primaire et de sept parents d’élèves à risque. Les participants ont délibérément été choisis pour leur représentativité par rapport à l’objet d’étude (Mongeau, 2009). Une procédure d’échantillonnage par volontariat a été appliquée et les données ont été recueillies par le biais d’entrevues semi-dirigées. L’analyse des entrevues révèle que les parents participent au plan d’intervention parce qu’ils veulent soutenir et aider leur enfant dans leur cheminement scolaire. Il existe cependant de multiples façons pour les parents de participer à la réussite scolaire de leur enfant, celles-ci variant particulièrement selon leurs intérêts, leurs compétences et leurs disponibilités. En ce qui concerne les enseignants, les entrevues nous dévoilent qu’ils ont globalement des perceptions positives à l’égard des parents, ce qui favorise grandement l’établissement de relations harmonieuses. Par contre, ils s’attendent à une plus grande participation parentale dans le suivi scolaire de l’enfant à la maison. Tant d’un côté que de l’autre, les résultats indiquent qu’il faut favoriser davantage la participation des parents à l’élaboration et au suivi du plan d’intervention de l’élève à risque. Idéalement, les enseignants et les parents devraient s’enrichir mutuellement de leurs ressources et de leurs expertises complémentaires en créant des relations collaboratives plutôt que hiérarchiques. Ce niveau de collaboration est sans aucun doute celui qui favoriserait avantageusement la réussite scolaire des élèves à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, la Loi 113 a été adoptée en 2002 pour réduire l’incidence et les conséquences des événements indésirables survenus en cours de soins de santé. Cette loi oblige à effectuer plusieurs modifications tant au niveau administratif que clinique, notamment, la création de comités de gestion du risque, l’établissement de politiques pour la divulgation aux patients et la déclaration systématique des événements indésirables dans les institutions hospitalières. Cependant, la capacité de ces établissements à implanter les mesures requises par la loi a été mise en doute par certains auteurs. L’objectif de cette thèse a été d’étudier le processus d’implantation de la loi 113 à partir d’un cadre théorique intégrant les approches dites de développement organisationnel, institutionnelle et politique. Pour cela, nous avons mené une étude de cas multiples, chaque cas étant représenté par un type d’hôpital qualifié dans le contexte de notre étude de « petit », « grand » et « universitaire ». Les procédures de cueillette des données ont consisté en des entrevues avec des administrateurs et des professionnels de santé, des séances d’observation de comités de gestion des risques, et une analyse de documents issus des secteurs administratifs de chaque institution. Les résultats suggèrent une implantation progressive et variable de la loi d’un hôpital à l’autre et la présence de conflits entre les pratiques professionnelles ou organisationnelles et les nouvelles normes légales. Ces dernières semblent avoir été adoptées au niveau administratif, tandis que les normes professionnelles et organisationnelles ont continué à prédominer au niveau clinique, une situation ayant entraîné un climat de méfiance entre les milieux administratif et clinique, plus particulièrement parmi les médecins de chaque établissement hospitalier. Les résultats de notre étude indiquent également que les stratégies ayant le plus contribué au changement résultent d’une forte légitimité et du leadership des principaux agents de changement, comme la gouverne et le gestionnaire de risque, et de la gestion avisée de l’environnement organisationnel. Cependant, malgré les efforts continus mobilisés au sein de chaque établissement pour implanter la loi, on a pu constater la persistance d’une résistance de certains acteurs clefs. En conclusion, l’implication et la contribution des détenteurs d’enjeux internes et externes de l’organisation sont nécessaires pour aboutir à une vision commune et aligner les différentes interventions afin d’assurer le succès de l’implantation de la loi.