322 resultados para loi de la nature
Resumo:
Le transport actif de sodium par les cellules épithéliales alvéolaires est le principal mécanisme impliqué dans la régulation du niveau de liquide dans le poumon distal. Le canal épithélial sodique (ENaC) exprimé par les cellules épithéliales alvéolaires est essentiel à la résorption du liquide des poumons à la naissance ainsi que la résolution de l'œdème pulmonaire chez l'adulte. L'activité et l'expression du canal ENaC sont modulées par de nombreux stress pathophysiologiques. L'inflammation pulmonaire constitue un facteur important dans l'inhibition de l'expression du canal ENaC et pourrait favoriser la formation d'œdème pulmonaire. Nous avons précédemment démontré que différentes cytokines pro-inflammatoires, ainsi que les lipopolysaccharides (LPS) de Pseudomonas aeruginosa, inhibent l'expression de l'ARNm αENaC par des mécanismes de régulation transcriptionnelle et post-transcriptionnelle. Ces résultats suggèrent que les mécanismes qui modulent la stabilité des ARNm αENaC pourraient jouer un rôle important dans la régulation du niveau d’expression du transcrit en condition inflammatoire. Le principal objectif de mes travaux était de caractériser les mécanismes de modulation de l’ARNm αENaC dans les cellules épithéliales alvéolaires lors de différents stress pathophysiologiques et déterminer si cette modulation pouvait s’expliquer en partie par une régulation de la stabilité du transcrit. Mes travaux montrent que les LPS et la cycloheximide inhibent l’expression de l’ARNm αENaC de façon similaire via l’activation des voies de signalisation des MAPK ERK1/2 et p38. Cependant, les mécanismes de modulation de l’expression de l'ARNm αENaC sont différents puisque les LPS répriment la transcription du gène, alors que la cycloheximide diminuerait la stabilité du transcrit via des mécanismes post-transcriptionnels impliquant la région 3' non traduite (3'UTR) de l'ARNm αENaC. Pour mieux étudier le rôle du 3'UTR dans ce processus, nous avons développé un modèle Tet-Off nous permettant de mesurer la demi-vie de l’ARNm αENaC indépendamment de l’utilisation d’un inhibiteur de la transcription comme l'actinomycine D (Act. D). Nous avons montré que la demi-vie de l’ARNm αENaC était de 100min, un temps beaucoup plus court que celui rapporté dans la littérature. Nous avons démontré que l’Act. D a un effet stabilisateur important sur l’ARNm αENaC et qu’il ne peut être utilisé pour évaluer la stabilité du transcrit. À l’aide de différents mutants de délétion, nous avons entrepris de déterminer la nature des régions du 3’UTR impliquées dans la modulation de la stabilité du transcrit. Nous avons trouvé que le 3’UTR joue un rôle à la fois de stabilisation (région 3’UTR proximale) et de déstabilisation (région 3’UTR distale) du transcrit. Notre système nous a finalement permis de confirmer que la diminution de l’ARNm αENaC observée en présence de TNF-α s’expliquait en partie par une diminution importante de la stabilité du transcrit induite par cette cytokine. Enfin, nous avons identifié la nature des protéines pouvant se lier au 3’UTR de l’ARNm αENaC et déterminé lesquelles pouvaient moduler la stabilité du transcrit. Des trois protéines candidates trouvées, nous avons confirmé que la surexpression de DHX36 et TIAL1 diminue le niveau de transcrit par un mécanisme impliquant la stabilité du messager. Les travaux présentés ici montrent la complexité des voies de signalisation induites par différents stress sur les cellules épithéliales alvéolaires et montrent comment la stabilité de l’ARNm αENaC et en particulier, les séquences du 3’UTR jouent un rôle important dans la modulation du niveau de transcrit. Le modèle Tet-Off que nous avons développé permet d’estimer le temps de demi-vie réel de l’ARNm αENaC et montre que le 3’UTR du messager joue un rôle complexe dans la stabilisation du messager en condition de base ainsi qu’en condition pro-inflammatoire. Enfin, nous avons identifié deux protéines liant l’ARNm qui pourraient jouer un rôle important dans la modulation de la stabilité du transcrit.
Resumo:
Cette thèse propose une étude des raisons théoriques et empiriques impliquées dans l’élaboration d’une nouvelle astronomie par Johannes Kepler (1571-1630) tel qu’exposé dans son ouvrage Astronomia nova (1619). Cette thèse se déroule en deux temps : la première partie touche de près aux textes mêmes de Kepler, tandis que la seconde partie utilise la notion d’abduction pour interpréter logiquement ce processus de découverte et de justification. La première partie débute avec une analyse du projet de Kepler et de ses fondements philosophiques, métaphysiques et théologiques tels qu’exposés dans son premier ouvrage, le Mysterium cosmographicum. Ensuite, une étude des propos explicites de Kepler quant à la nature et au statut des hypothèses astronomiques est proposée via une étude de son traité intitulé Apologia pro Tychone contra Ursum. Une étude attentive des sources philosophiques, mathématiques et scientifiques ayant influencé Kepler pour sa nouvelle astronomie est ensuite proposée avant l’analyse détaillée des arguments scientifiques et des différentes étapes démonstratives qui sont présentés dans l’Astronomia nova. La deuxième partie vise à éclairer le débat sur l’abduction en se penchant d’abord sur trois approches traditionnelles (Platon, Aristote et Épicure) quant à la connaissance scientifique des phénomènes célestes permettant d’obtenir un discours vraisemblable ou une multiplicité d’explications concordantes avec les phénomènes. Enfin, quatre interprétations contemporaines et abductives du processus de découverte suivi par Kepler dans l’Astronomia nova sont présentées, reformulées et critiquées afin de proposer une nouvelle interprétation abductive laissant une plus grande place au projet même de construire une astronomie nouvelle fondée sur les causes. Cela nous donne des outils pour mieux saisir le sens et la portée de ce qui peut être désigné comme étant la « révolution képlérienne », soit le passage d’un système géocentrique à un système non pas simplement héliocentrique mais héliodynamique, ayant permis aux astronomes de s’affranchir du paradigme des orbites circulaires.
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Notre thèse a pour objectif de déterminer la nature des liens entre la multiplication des processus de macro-régionalisation, dans un contexte de mondialisation, et le renouvellement des politiques d’aménagement du territoire à travers la mise en place de nouvelles formes de coopération décentralisée entre villes et territoires. Notre projet de recherche cherche ainsi à établir comment la régionalisation permet la mise en place d’une gouvernance à niveaux multiples mettant en relation des acteurs territoriaux, à différents échelons de décision (supranational, national et infranational) dans le but de faire face à la complexité grandissante des problèmes actuels à l’échelle mondiale. Parmi ces projets régionaux qui émergent dans plusieurs parties du monde, nous avons choisi le Partenariat euro-méditerranéen comme cas d'étude en s'intéressant de manière particulière aux projets et programmes de coopération décentralisée et transfrontalière qui se mettent en place autour de la Méditerranée et qui mettent en relation plusieurs villes et régions riveraines. Afin de répondre à ces questions, nous avons décliné notre argumentation en plusieurs axes de réflexion. Un premier axe de réflexion tourne autour de la nature du projet régional euro-méditerranéen et de son implication au niveau des stratégies territoriales principales. Un deuxième axe concerne le contenu et les processus de mise en œuvre des programmes et projets de coopération décentralisée et transfrontalière et leur pertinence au niveau du développement local des territoires du Sud. Un troisième axe s’intéresse au rôle de l’État central en face du développement de ces initiatives qui le contourne. Enfin, un quatrième axe de réflexion concerne l’attitude de l’échelon local par rapport à ces initiatives qui l’interpellent et le sollicitent en tous sens.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Resumo:
Ce projet de mémoire de maîtrise portera sur Descartes et la preuve dite "ontologique" de l'existence de Dieu. La présentation qui sera faite de cette preuve, de ses tenants et de ses aboutissants, tiendra compte: premièrement, du rôle et du statut de celle-ci dans l'ordre des raisons métaphysiques; deuxièmement, des relations entre la preuve "ontologique" et la preuve dite "par les effets"; et troisièmement, des différentes oeuvres de Descartes dans lesquelles il est question de l'argument ontologique. Ainsi, cette analyse permettra de noter les différences relatives qu'il pourrait y avoir chez Descartes quant au fond ou à la forme de cet argument. Nous évoquerons notamment la position différente qu'occupe cette preuve dans deux écrits, soient les Méditations métaphysiques (1641) et les Principes de la philosophie (1644). Ce genre d'analyse nous permettra de nous pencher sur le débat initié par Martial Guéroult et Henri Gouhier concernant la place de la preuve "ontologique" de l'existence de Dieu au sein de l'ordre des raisons métaphysiques ainsi que ses relations avec la preuve "par les effets". La postérité de ce débat sera également considérée. Aussi, nous serons à même de poser la question à savoir s'il y a une évolution de la preuve "ontologique" de l'existence de Dieu au fil des oeuvres dans la pensée de Descartes. En résumé, dans ce mémoire, nous aborderons deux problématiques: la question de l'autonomie ou de la non autonomie de la preuve "ontologique" par rapport à la preuve "par les effets", et le questionnement quant à la possibilité d'une évolution de la place et de la nature de la preuve dite "ontologique" de l'existence de Dieu dans les écrits de Descartes.
Resumo:
L’encadrement légal particulier de la négociation collective impliquant les pompiers municipaux québécois, malgré sa soumission à certaines règles prévues par le régime général du Code du travail, présente des spécificités qui pourraient en affecter l’efficacité et ainsi contribuer à l’instauration de relations de travail difficiles. Ce mémoire s’attarde aux difficultés associées à ce régime de négociation collective interdisant le recours à la grève et prévoyant son remplacement par un système d’arbitrage obligatoire. L’étude des relations de travail impliquant les pompiers de Montréal ne permet pas, à elle seule, de qualifier ce régime particulier de négociation collective d’alternative inefficace au régime général. Toutefois, ce mémoire met en évidence les limites d’un cadre légal, alors que des facteurs externes au droit, tels que le caractère public de l’employeur et la nature particulière du métier, semblent jouer un rôle déterminant dans la dynamique conflictuelle des relations de travail impliquant des pompiers municipaux.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
L’apport disproportionné aux taux de criminalité des membres des gangs de rue est, nul doute, une proposition empirique robuste. De nombreuses études ont conclu que l’association aux gangs de rue est un facteur de risque supplémentaire à celui que constitue déjà la fréquentation de pairs délinquants au nombre des meilleurs prédicteurs de la délinquance avec les antécédents criminels et les traits antisociaux de la personnalité. Pourtant, la contribution spécifique de l’association aux gangs de rue à l’explication de la délinquance est largement méconnue. Au nombre des variables les plus souvent citées pour l’expliquer figure néanmoins le concept de l’adhésion à la culture de gang qui n’a toutefois jamais été spécifiquement opérationnalisé. Le but de la thèse est d’étudier la contribution spécifique de l’adhésion d’un contrevenant à la culture des gangs de rue à l’explication de la délinquance. Plus précisément, elle a comme objectifs de définir la culture des gangs de rue, d’opérationnaliser l’adhésion à la culture des gangs de rue, d’examiner la fidélité de la mesure de l’adhésion à la culture de gang et d’étudier sa relation avec la nature, la variété et la fréquence des conduites délinquantes de contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Trois articles scientifiques, auxquels un chapitre régulier est joint, ont servi la démonstration de la thèse. D’abord, le premier article présente les démarches relatives au développement de la première Mesure de l’adhésion à la culture de gang, la MACg. Plus précisément, l’article présente la recension des écrits qui a permis de proposer une première définition de la culture de gang et d’opérationnaliser le concept. Il fait aussi état de la démarche de la validation de la pertinence de son contenu et des données préliminaires qui révèlent la très bonne cohérence interne de la MACg. Cette première étude est suivie de la présentation, dans le cadre d’un chapitre régulier, des résultats de l’examen de la cotation des principaux indicateurs de la culture de gang. Cette démarche constitue un complément nécessaire à l’examen de la validité apparente de la MACg. Les résultats révèlent des degrés de concordance très satisfaisants entre les observations de divers professionnels des centres jeunesse et des services correctionnels du Québec qui ont été invités à coter les indicateurs de la culture de gang à partir de deux histoires fictives d’un contrevenant mineur et d’un second d’âge adulte. Puis, le deuxième article présente les résultats d’un premier examen de la fidélité de la MACg à l’aide du modèle de Rasch de la Théorie de la réponse aux items. Ses résultats soutiennent l’unidimensionnalité de la MACg et sa capacité à distinguer des groupes d’items et de personnes le long d’un continuum de gravité d’adhésion à la culture de gang. Par contre, le fonctionnement différentiel et le mauvais ajustement de certains items sont observés, ainsi que l’inadéquation de la structure de réponses aux items (de type Likert) privilégiée lors de l’élaboration de la MACg. Une version réaménagée de cette dernière est donc proposée. Enfin, le troisième et dernier article présente les résultats de l’examen de la relation entre la délinquance et l’adhésion d’un contrevenant à la culture de gang telle que mesurée par la MACg. Les résultats soutiennent l’apport unique de l’adhésion d’un contrevenant à la culture de gang à la diversité et à la fréquence des conduites délinquantes auto-rapportées par des contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Le score à l’échelle originale et réaménagée de la MACg s’avère, d’ailleurs, un facteur explicatif plus puissant que l’âge, la précocité criminelle, les pairs délinquants et la psychopathie au nombre des meilleurs prédicteurs de la délinquance. L’étude met aussi en lumière l’étroite relation entre une forte adhésion à la culture de gang et la présence marquée de traits psychopathiques annonciatrice de problèmes particulièrement sérieux. Malgré ses limites, la thèse contribuera significativement aux développements des bases d’un nouveau modèle explicatif de l’influence de l’association aux gangs de rue sur les conduites des personnes. La MACg pourra aussi servir à l’évaluation des risques des hommes contrevenants placés sous la responsabilité du système de justice pénale et à l’amélioration de la qualité des interventions qui leur sont dédiées.
Resumo:
L’entrée en vigueur de la Loi concernant le cadre juridique des technologies de l’information (ci-après la Loi), est la concrétisation de la prise en compte par le droit, de la preuve technologique. La notion de document technologique est à la fois centrale dans la Loi et dans le Code civil du Québec. Il s’est parfaitement intégré aux divers moyens de preuve du Code civil. Nous allons nous intéresser à cette notion qu’est le document technologique, mais davantage à ses éléments structurants, les métadonnées. Nous allons nous pencher sur la notion, ses origines et ses domaines de prédilection, faisant d’elles, un objet a priori essentiellement technologique, avant de les envisager dans un contexte de preuve. Nous allons voir quel potentiel probatoire les métadonnées représentent, à l’appui d’un document technologique. Enfin, nous nous interrogerons sur leur rôle probatoire autour des notions de copie-transfert et des obligations posées par la Loi, afin que ces deux modes de reproduction des document, puissent légalement tenir lieu du document original, soit la certification et la documentation.
Resumo:
Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.
Resumo:
L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Ce mémoire traite de la portée de la protection constitutionnelle du droit à la vie privée informationnelle au Canada, au regard de la surveillance électronique gouvernementale à grande échelle des métadonnées des communications électroniques, à des fins de sécurité nationale. Il est soutenu, après une présentation de l’importance démocratique de la vie privée, de même que de la nature et de la portée de certaines activités gouvernementales de surveillance électronique, que le cadre d’analyse du « Biographical core », qui conditionne l’étendue de la protection de la vie privée informationnelle en droit constitutionnel canadien, est susceptible d’inclure les métadonnées des communications électroniques. Cette position est appuyée par un argumentaire juridique fondé sur les règles d’interprétation et la jurisprudence constitutionnelle pertinente. Cet argumentaire se trouve renforcé par potentiel considérablement révélateur des métadonnées, des particularités propres aux activités de surveillance électronique analysées, ainsi que des implications non-juridiques soulevées par ces dernières.
Resumo:
Le présent mémoire porte sur la question de la mort de Dieu dans la philosophie allemande du XIXe siècle. Plus précisément elle entend mettre en lumière le rôle qu’un auteur comme Ludwig Feuerbach (1804-1872) a pu jouer dans la réception d’un tel événement pour la philosophie de cette époque. On observe en effet chez Hegel et Nietzsche, certainement les deux philosophes les plus importants à s’être intéressés au thème de la mort de Dieu, deux manières tout à fait différentes, voire antinomiques, d’interpréter un tel événement. Ce qui fera dire à certains auteurs comme Deleuze et Foucault notamment, qu’entre Hegel et Nietzsche il ne saurait y avoir qu’une coupure radicale tant leurs compréhensions de la mort de Dieu diffère. Un tel geste trahit cependant un certain arbitraire qui empêche de comprendre la genèse philosophique d’un tel déplacement, entre Hegel et Nietzsche, dans la manière d’aborder la mort de Dieu. C’est ici que l’étude de la philosophie feuerbachienne s’avère fructueuse, car si elle demeure dans un dialogue critique par rapport à la conception hégélienne de la mort de Dieu, sa réponse opère cependant un déplacement qui anticipe certains aspects de la pensée nietzschéenne. C’est à partir de l’analyse de sa critique de la religion chrétienne et de l’anthropologie philosophique nouvelle qui l’y oppose que l’on sera en mesure de saisir la nature de ce déplacement feuerbachien.