998 resultados para comportement informationnel
Resumo:
Nous investiguons dans ce travail la création d'échantillons permettant l'étude du comportement des polaritons excitoniques dans les matériaux semi-conducteurs organiques. Le couplage fort entre les états excités d'électrons et des photons impose la création de nouveaux états propres dans le milieu. Ces nouveaux états, les polaritons, ont un comportement bosonique et sont donc capables de se condenser dans un état fortement dégénéré. Une occupation massive de l'état fondamental permet l'étude de comportements explicables uniquement par la mécanique quantique. La démonstration, au niveau macroscopique, d'effets quantiques promet d'éclairer notre compréhension de la matière condensée. De plus, la forte localisation des excitons dans les milieux organiques permet la condensation des polaritons excitoniques organiques à des températures beaucoup plus hautes que dans les semi-conducteurs inorganiques. À terme, les échantillons proposés dans ce travail pourraient donc servir à observer une phase cohérente macroscopique à des températures facilement atteignables en laboratoire. Les cavités proposées sont des résonateurs Fabry-Perot ultraminces dans lesquels est inséré un cristal unique d'anthracène. Des miroirs diélectriques sont fabriqués par une compagnie externe. Une couche d'or de 60 nanomètres est ensuite déposée sur leur surface. Les miroirs sont ensuite mis en contact, or contre or, et compressés par 2,6 tonnes de pression. Cette pression soude la cavité et laisse des espaces vides entre les lignes d'or. Une molécule organique, l'anthracène, est ensuite insérée par capillarité dans la cavité et y est cristallisée par la suite. Dans leur état actuel, les cavités présentent des défauts majeurs quant à la planarité des miroirs et à l'uniformité des cristaux. Un protocole détaillé est présenté et commenté dans ce travail. Nous y proposons aussi quelques pistes pour régler les problèmes courants de l'appareil.
Resumo:
Cette thèse traite de la supposée perte de culture politique et citoyenne que connaît le Chili de la période post-dictature. Bien qu’une telle perte soit généralement considérée comme une évidence, nous évaluons dans quelle mesure celle-ci est bien réelle en nous intéressant aux processus d’apprentissage du comportement civique de la plus jeune génération politique du pays qui a aujourd’hui atteint la vingtaine. Étant donné que les membres de cette génération étaient soit au stade de l’enfance, soit pas même nés au moment de la transition démocratique de 1990, ils ont habituellement pris connaissance des événements de répression étatique et de réconciliation démocratique par l’intermédiaire de leurs aînés. Ce phénomène est encore plus marqué dans les régions rurales du sud du pays où la majeure partie de ce que les jeunes générations savent du passé conflictuel de leur pays, incluant le colonialisme, le socialisme révolutionnaire et le fascisme, n’a pas été transmis par la communication verbale ou volontaire, mais indirectement via les habitudes et préférences culturelles qui ne manquent pas d’influencer les décisions politiques. À travers l’analyse des mécanismes de transmission inter-générationnelle de diverses perspectives d’un passé contesté, notre travail explore les processus par lesquels, à l’échelle micro, certains types de comportement politique sont diffusés au sein des familles et de petits réseaux communautaires. Ces derniers se situent souvent en tension avec les connaissances transmises dans les domaines publics, comme les écoles et certaines associations civiques. De telles tensions soulèvent d’importantes questions au sujet des inégalités de statut des membres de la communauté nationale, en particulier à une époque néolibérale où la réorganisation du fonctionnement des services sociaux et du contrôle des ressources naturelles a transformé les relations entre le monde rural pauvre et la société dominante provenant des centres urbains. Au sein de la jeune génération politique du Chili, dans quelle mesure ces perspectives situées concernant un passé pour le moins contesté, ainsi que leurs impacts sur la distribution actuelle du pouvoir dans le pays façonnent-ils des identités politiques en émergence ? Nous abordons cette question à l’aide d’une analyse ethnographique des moyens auxquels les jeunes recourent pour acquérir et exprimer des connaissances au sujet de l’histoire et de son influence latente dans la vie civique actuelle. Nos données proviennent de plus de deux années de terrain anthropologique réalisées dans trois localités du sud rural ayant été touchées par des interventions industrielles dans les rivières avoisinantes. L'une d'entre elles a été contaminée par une usine de pâte à papier tandis que les autres doivent composer avec des projets de barrage hydroélectrique qui détourneront plusieurs rivières. Ces activités industrielles composent la toile de fond pour non seulement évaluer les identités politiques, émergentes mais aussi pour identifier ce que l’apprentissage de comportement politique révèle à propos de la citoyenneté au Chili à l’heure actuelle.
Resumo:
Cette thèse porte sur l’exploration des facteurs d’influence et des déterminants qui peuvent décrire et expliquer le comportement d’une entreprise multinationale lors d’un licenciement collectif pour fermeture d’usine mesuré à l’aune de l’idée de responsabilité sociale. Nous prenons pour base les conséquences sociales et économiques néfastes des licenciements collectifs sur les employés et les communautés ainsi que la faiblesse à cet égard du droit du travail québécois. De plus, nous établissons le lien entre la nature de la responsabilité sociale d’un point de vue théorique et la perspective empirique dans le cadre d’un processus de licenciement collectif. Pour arriver à cette fin, au niveau théorique, c’est à travers les critères éthiques de Garrett et Klonoski (1986) soit la juste cause, la minimisation des effets dommageables et la justice procédurale, que notre recherche a démontré qu’il était possible de déterminer de la responsabilité sociale d’une entreprise d’un point de vue empirique dans un contexte de licenciement collectif. Nous avons aussi regardé de près les différentes théories de la responsabilité sociale de l’entreprise pour finalement retenir une théorie instrumentale des parties-prenantes. Au plan méthodologique, nous avons utilisé une étude de cas unique soit celle de la fermeture partielle de l’usine de Rio Tinto Alcan située à Beauharnois au Québec. De plus, il a été possible de catégoriser l’approche adoptée par cette entreprise sous une taxonomie théorique de la responsabilité sociale, c’est donc une approche intégrative à deux niveaux : local et corporatif qui ressort de notre analyse. Au niveau local, nous avons identifié une perspective éthique reliée aux valeurs personnelles des individus devant mettre en place les mécanismes. Au niveau corporatif, c’est davantage une perspective instrumentale qui ressort. En ce sens, la multinationale estime devoir rendre des comptes à la fois à ses actionnaires et aux financiers afin d’établir une légitimité nécessaire ainsi qu’au politique (entre autre municipal et provincial) afin d’avoir accès aux ressources convoitées et nécessaires à son exploitation, de là l’importance de son image corporative. Le type d’entreprise doit être pris en considération, dans le secteur des ressources naturelles, le rôle et l’implication du politique s’avère central car il permet un accès aux ressources, essentiels à la survie de l’entreprise. L’apport de cette recherche se retrouve principalement dans l’étude du concept de responsabilité sociale à travers un phénomène important pour les relations industrielles soit celui des licenciements collectifs. Elle élargie aussi le champ théorique habituelle des relations industrielles en prenant en compte un cadre de la responsabilité sociale qui permet d’étudier des phénomènes sous un nouvel angle qui tient compte des priorités actuelles des multinationales dans un contexte d’ouverture des marchés et de recherche de légitimité.
Resumo:
Le sommeil est essentiel au bon fonctionnement de l’organisme. Ce dernier est régulé, entre autres, par le processus de régulation homéostatique qui dépend de la pression de sommeil accumulée suite à l’éveil. Des études ont suggéré que ce processus pourrait être lié à la plasticité synaptique, et que le changement de la pression de sommeil affecterait le degré de plasticité du cerveau. Les récepteurs N-méthyl-D-aspartate, des médiateurs importants de plasticité, semblent impliqués dans les conséquences délétères du manque de sommeil ainsi que dans la régulation de la synchronisation corticale caractéristique du sommeil lent profond. Leur activité est contrôlée par Neuroligine 1 (NLGN1), une molécule d’adhésion synaptique. Une mutation de Nlgn1 a des effets similaires à ceux de la privation de sommeil sur la mémoire et le comportement. Dans le manuscrit de mon mémoire, nous présentons l’hypothèse d’une implication de NLGN1 dans la régulation du sommeil et de l’éveil. Pour tester cette hypothèse, l’expression d’ARNm et de protéine NLGN1 a été mesurée suite à une privation de sommeil et le sommeil de souris n’exprimant pas NLGN1 a été caractérisé. Les résultats de mon projet de maîtrise montrent, en premier lieu, qu’une augmentation de la pression pour dormir altère l’expression de l’ARNm et de la protéine NLGN1 chez la souris. De plus, nos observations révèlent qu’une mutation de Nlgn1 diminue la quantité d’éveil et modifie l’activité spectrale en éveil et en sommeil. Ces observations dévoilent l’importance de NLGN1 dans le maintien de l’éveil et la régulation du sommeil, et supportent un rôle de NLGN1 dans la régulation de l’activité neuronale.
Resumo:
"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
Nous sommes quotidiennement envahis pour d’innombrables messages électroniques non sollicités, qu’il s’agisse d’annonces publicitaires, de virus ou encore de ce qu’on appelle désormais les métavirus. Ces derniers sont des canulars transmis aux internautes leur suggérant de poser tel ou tel geste, lequel causera des dommages plus ou moins importants au système de l’utilisateur. L’auteur se penche sur la problématique que suscitent ces métavirus au niveau de la responsabilité civile de leurs émetteurs. Il en vient à la conclusion que ce régime, bien qu’applicable en théorie, demeure mal adapté au problème notamment au niveau de la preuve des éléments de la responsabilité civile. Il faut d’abord établir la capacité de discernement (ou l’incapacité) de l’émetteur, la connaissance ou non de cet état par le destinataire et la preuve d’un comportement fautif de la part de l’émetteur voire même des deux parties. Reste à savoir quelle aurait été l’attitude raisonnable dans la situation. À noter que la victime pourrait être trouvée partiellement responsable pour ses propres dommages. Reste alors à prouver le lien de causalité entre l’acte et le dommage ce qui, compte tenu de la situation factuelle, peut s’avérer une tâche ardue. L’auteur conclut que l’opportunité d’un tel recours est très discutable puisque les coûts sont disproportionnés aux dommages et car les chances pour qu’un juge retienne la responsabilité de celui qui a envoyé le métavirus sont assez faibles. La meilleure solution, ajoute-t-il, reste la prudence.
Resumo:
Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.
Resumo:
Cette thèse comporte trois essais sur les interactions sociales en sciences économiques. Ces essais s’intéressent à la fois au côté théeorique qu’empirique des interactions sociales. Le premier essai (chapitre 2) se concentre sur l’étude (théorique et empirique) de la formation de réseaux sociaux au sein de petites économies lorsque les individus ont des préférences homophilique et une contrainte de temps. Le deuxième essai (chapitre 3) se concentre sur l’étude (principalement empirique) de la formation de réseau sociaux au sein de larges économies où les comportement d’individus très distants sont aproximativement indépendants. Le dernier essai (chapitre 4) est une étude empirique des effets de pairs en éducation au sein des écoles secondaires du Québec. La méthode structurelle utilisée permet l’identification et l’estimation de l’effet de pairs endogène et des effets de pairs exogènes, tout en contrôlant pour la présence de chocs communs.
Resumo:
Cette thèse analyse les incidences des avancées d’une rationalité technoscientifique sur les définitions classiques de l’humain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de l’humain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche d’un posthumanisme – en rapport difficile avec le corps – qui bouscule les définitions classiques de l’humain judéo-chrétien, dont l’anthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de l’humain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur l’anthropologie évangélique, la thèse situe les Évangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à l’intérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, l’imago Dei et le concept de l’unicité de l’humain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à l’anthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de l’humain homo ii faber et l’anthropotechnie, versus le remodèlement de l’humain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse qu’elle présente de l’anthropologie évangélique, 2) de la compréhension de l’identité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur l’utilisation tous azimuts du concept de l’imago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans l’approfondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien qu’ont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de l’humain capable de prendre en considération les défis d’une rationalité technoscientifique et de son posthumanisme.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Introduction : La prévention de la mort de cellules cardiaques contractiles suite à un épisode d'infarctus du myocarde représente le plus grand défi dans la récupération de la fonction cardiaque. On a démontré à maintes reprises que l'ocytocine (OT), l'hormone bien connue pour ses rôles dans le comportement social et reproductif et couramment utilisée dans l’induction de l’accouchement, diminue la taille de l'infarctus et améliore la récupération fonctionnelle du myocarde blessé. Les mécanismes de cette protection ne sont pas totalement compris. Objectif : Étudier les effets d'un traitement avec de l'ocytocine sur des cardiomyocytes isolés en utilisant un modèle in vitro qui simule les conditions d'un infarctus du myocarde. Méthodes : La lignée cellulaire myoblastique H9c2 a été utilisée comme modèle de cardiomyocyte. Pour simuler le dommage d'ischémie-reperfusion (IR), les cellules ont été placées dans un tampon ischémique et incubées dans une chambre anoxique pendant 2 heures. La reperfusion a été accomplie par la restauration du milieu de culture régulier dans des conditions normales d'oxygène. L'OT a été administrée en présence ou en absence d'inhibiteurs de kinases connues pour être impliquées dans la cardioprotection. La mortalité cellulaire a été évaluée par TUNEL et l'activité mitochondriale par la production de formazan pendant 1 à 4 heures de reperfusion. La microscopie confocale a servie pour localiser les structures cellulaires. Résultats : Le modèle expérimental de l'IR dans les cellules H9c2 a été caractérisé par une diminution dans la production de formazan (aux alentours de 50 à 70 % du groupe témoin, p < 0.001) et par l'augmentation du nombre de noyaux TUNEL-positif (11.7 ± 4.5% contre 1.3 ± 0.7% pour le contrôle). L'addition de l'OT (10-7 a 10-9 M) au commencement de la reperfusion a inversé les effets de l'IR jusqu'aux niveaux du contrôle (p < 0.001). L'effet protecteur de l'OT a été abrogé par : i) un antagoniste de l'OT ; ii) le knockdown de l'expression du récepteur à l'OT induit par le siRNA ; iii) la wortmannin, l'inhibiteur de phosphatidylinositol 3-kinases ; iv) KT5823, l'inhibiteur de la protéine kinase dépendante du cGMP (PKG); v) l'ODQ, un inhibiteur du guanylate cyclase (GC) soluble, et A71915, un antagoniste du GC membranaire. L'analyse confocale des cellules traitées avec OT a révélé la translocation du récepteur à l'OT et la forme phosphorylée de l'Akt (Thr 308, p-Akt) dans le noyau et dans les mitochondries. Conclusions : L'OT protège directement la viabilité des cardiomyocytes, lorsqu'elle est administrée au début de la reperfusion, par le déclenchement de la signalisation du PI3K, la phosphorylation de l'Akt et son trafic cellulaire. La cytoprotection médiée par l'OT implique la production de cGMP par les deux formes de GC.
Resumo:
La variabilité des concentrations plasmatiques mesurées lors d’une anesthésie générale avec le propofol est directement reliée à une variabilité inter-animale, sa pharmacocinétique. L’objectif de cette étude est de caractériser la pharmacocinétique du propofol et de rechercher les effets des caractéristiques démographiques sur la variation des paramètres pharmacocinétiques. Les chiens (n=44) ayant participé à cette étude ont été anesthésiés au propofol à 6 mois (n=29), 12 (n=21) mois et/ou 24 mois (n=35). L’anesthésie a été induite avec du propofol (en moyenne 5 mg) et maintenue avec une perfusion (débit initial de 360 mg/kg/h). Des ajustements de perfusion ainsi que des bolus supplémentaires seront administrés si le comportement de l’animal l’exige. Une randomisation stratifiée des sexes aux deux groupes de prémédication, le premier recevant de l’acépropmazine (0,05 mg/kg en I.M.) et le deuxième une association d’acépromazine (0.05 mg/kg IM) et de butorphanol (0.1mg/kg IM). Des échantillons sanguins ont été prélevés de t=0 jusqu'à t=300 minutes ou plus. Au total 1339 prélèvements ont été analysés. Un modèle mamillaire à 3 compartiments décrit de manière adéquate nos données. Les valeurs moyennes de CLt V1, CL2, V2, CL3 and V3 sont respectivement égales à 0.65 L/min (SD=0.24), 2.6 L (SD=2.04), 2.24 L/min (1.43), 9.6 L (SD=7.49), 0.42 L/min (SD=0.199), 46.4 L (SD=40.6). Les paramètres pharmacocinétiques obtenus ont révélé une grande variabilité interindividuelle, en particulier CL2, V1, V2 et V3 .Le poids est une co-variable significative pour CLt et V2. L’âge est une co-variable significative pour CL3 et V3. L’ajout de la parenté pour V2 et V3 au modèle a amélioré la qualité de l’ajustement du modèle. Les paramètres V1 et CL2 sont indépendants des facteurs physiologiques étudiés.