434 resultados para Dommages de gravure
Resumo:
Le maintien de la stabilité du génome est essentiel pour la propagation de l’information génétique et pour la croissance et la survie des cellules. Tous les organismes possèdent des systèmes de prévention des dommages et des réarrangements de l’ADN et nos connaissances sur ces processus découlent principalement de l’étude des génomes bactériens et nucléaires. Comparativement peu de choses sont connues sur les systèmes de protection des génomes d’organelles. Cette étude révèle l’importance des protéines liant l’ADN simple-brin de la famille Whirly dans le maintien de la stabilité du génome des organelles de plantes. Nous rapportons que les Whirlies sont requis pour la stabilité du génome plastidique chez Arabidopsis thaliana et Zea mays. L’absence des Whirlies plastidiques favorise une accumulation de molécules rearrangées produites par recombinaison non-homologue médiée par des régions de microhomologie. Ce mécanisme est similaire au “microhomology-mediated break-induced replication” (MMBIR) retrouvé chez les bactéries, la levure et l’humain. Nous montrons également que les organelles de plantes peuvent réparer les bris double-brin en utilisant une voie semblable au MMBIR. La délétion de différents membres de la famille Whirly entraîne une accumulation importante de réarrangements dans le génome des organelles suite à l’induction de bris double-brin. Ces résultats indiquent que les Whirlies sont aussi importants pour la réparation fidèle des génomes d’organelles. En se basant sur des données biologiques et structurales, nous proposons un modèle où les Whirlies modulent la disponibilité de l’ADN simple-brin, régulant ainsi le choix des voies de réparation et permettant le maintien de la stabilité du génome des organelles. Les divers aspects de ce modèle seront testés au cours d’expériences futures ce qui mènera à une meilleure compréhension du maintien de la stabilité du génome des organelles.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
Thèse réalisée en cotutelle avec la faculté de droit de l'Université d'Orléans en France.
Resumo:
Les sites apuriniques/apyrimidinique (AP) représentent une forme de dommage à l’ADN hautement mutagène et ce type de dommage peut survenir spontanément ou être induit par une variété d’agents. Afin de préserver la stabilité génomique, deux familles d’endonucléases de type AP, endo-IV et exo-III, sont nécessaires pour contrecarrer les effets mutagènes des sites AP. Malgré l’identification de membres des deux familles dans plusieurs organismes unicellulaire tels que E.coli et S. cerevisiae, aucun membre de la famille endo-IV n’a été identifié chez les organismes multicellulaires à l’exception de C. elegans et de C. briggsae. Nous avons donc décidé d’investiguer l’importance biologique de APN-1 chez C. elegans par l’utilisation d’une approche de knockdown du gène. Dans notre étude, nous avons montré que le knockdown du gène apn-1 chez C. elegans, en utilisant des ARN d’interférence (ARNi), cause une accumulation de mutations spontanées et induites par des drogues résultant en un délai de l’éclosion des œufs ainsi que par une diminution de la survie et de la longévité des vers adultes. De plus, nous avons montré que cette accumulation de mutations mène à un délai dans la progression du cycle cellulaire durant l’embryogénèse, représentant possiblement une explication du délai dans l’éclosion des œufs. Nous avons montré qu’il y avait une augmentation du niveau de mutations dans la gorge des vers, sans toutefois pouvoir confirmer la distribution de APN-1 qui possède une étiquette GFP. Les animaux transgéniques APN-1-GFP n’exprimaient pas suffisamment de la protéine de fusion pour permettre une visualisation à l’aide d’un microscope à fluorescence, mais la protéine a été détectée par immunobuvardage de type western. Les animaux transgéniques APN-1-GFP étaient instables et avaient des phénotypes concordants avec les défauts génétiques. En conclusion, il semble que C. elegans aie évolué afin de retenir un niveau de base de APN-1 jouant ainsi un rôle versatile afin de maintenir l’intégrité génétique d’autant plus que cet organisme semble manquer plusieurs enzymes de la voie de réparation par excision de base.
Resumo:
Sous l'ère moderne, où le commerce n'a plus de frontières physiques, les catastrophes causant des dommages à grande échelle se sont multipliées. Lorsque de telles catastrophes surviennent, l'utilisation de procédures de recours collectif pour juger de l'ensemble des litiges semble être la solution indiquée. Pourtant, l'expérience nous démontre qu'il n'en est rien... Bien que le même événement cause des dommages à de multiples victimes, le recours judiciaire demeure l'exercice d'un droit personnel. Le tribunal devra alors rechercher l'application de règles matérielles spécifiques à ce recours. En l'absence de règles spécifiques, les règles de conflit de lois du tribunal saisi seront applicables. Or, ces règles ne sont pas uniformes et entraînent une multiplicité de lois applicables. Conséquemment, il est opportun de s'interroger sur la pertinence de réunir des recours individuels en un seul recours. L'expérience américaine nous démontre les difficultés engendrées par la multiplicité de lois applicables à un recours collectif, bien que des solutions législatives et jurisprudentielles aient été proposées. Ces solutions demeurent imparfaites, tant au niveau de leur constitutionalité que du respect des droits fondamentaux. Devant la complexité occasionnée par le regroupement de ces litiges, les tribunaux sont réfractaires à leur autorisation, dès lors qu'une multiplicité de lois applicables est démontrée. Ainsi, la solution juridique la mieux adaptée aux recours collectifs internationaux demeure celle de saisir les tribunaux, de plusieurs recours collectifs distincts; chacun regroupé en fonction de la loi applicable à chaque recours, déterminée, au préalable, par l'analyse des règles de conflit de lois du tribunal saisi.
Resumo:
Ce mémoire aborde la question de la responsabilité précontractuelle en regardant son incidence en droit québécois ainsi qu'en droit international. Plus précisément, il s'agit de savoir comment est traitée la rupture des négociations lorsqu'aucun avant-contrat n'a été rédigé à cet effet. Afin de pouvoir déterminer ses grands paramètres, le texte aborde dans un premier temps la nature de cette responsabilité. N'étant pas codifiée en droit québécois et ne faisant l'objet d'aucune spécification dans les grands instruments internationaux, cette nature doit être associée à l'un des deux grands régimes de responsabilité soit: contractuel ou extracontractuel. L'importance de cette détermination n'est pas simplement théorique puisqu'elle a une influence directe sur plusieurs éléments comme la prescription ou le droit international privé. Au Québec, la doctrine et la jurisprudence ont choisi d'associer la responsabilité précontractuelle au domaine extracontractuel. Ainsi, elle devra suivre le modèle classique de faute, dommage et lien causal. Cependant, en droit international, la question de la nature reste encore nébuleuse compte tenu de la diversité des membres qui composent les comités d'élaboration des normes. Tous s'entendent pourtant sur un concept fondamental entourant la responsabilité précontractuelle : la bonne foi. Elle est au centre de la faute et dicte une éthique des pourparlers. Ainsi, dans un deuxième temps, la mise en œuvre de la responsabilité est abordée. De cette notion de bonne foi découlent de nombreux devoirs que les parties négociantes se doivent de respecter. Ils sont de création jurisprudentielle et demandent une étude au cas par cas. La liberté contractuelle étant le principe de base dans la formation des contrats, les tribunaux québécois sanctionnent rarement les cas de rupture des négociations. C'est ce principe de liberté qui empêche les pays de common law d'accepter le concept de bonne foi et de responsabilité précontractuelle, même s'ils sanctionnent, par l'intermédiaire de mécanismes, les comportements fautifs dans les pourparlers. Finalement, les dommages et les intérêts pouvant être réclamés varient. Au Québec et en France, autant les pertes subies que les gains manqués sont indemnisés tandis que les instruments internationaux sont plus réticents pour accorder un montant pour le gain manqué. Bref, la responsabilité précontractuelle est en pleine construction et son utilisation devant les tribunaux est encore peu fréquente.
Resumo:
Notre recherche visait au départ l'analyse de la substance du dommage moral: retrouver les sentiments à l'intérieur des chefs de dommage moral. Une première lecture des jugements québécois publiés, rendus entre le 1er janvier 1950 et le 31 décembre 2008 et à l'intérieur desquels des dommages et intérêts ont été octroyés pour réparer un dommage moral en matière de responsabilité civile extracontractuelle, laisse une impression de confusion et de désordre, tant au plan terminologique qu'au plan conceptuel. Dommage moral, préjudice extrapatrimonial, dommage non pécuniaire, préjudice moral: autant de termes qui rendent impossible une synthèse des chefs de préjudice. C'est finalement à l'analyse des raisons de cette confusion, aux formes qu'elle prend, aux moyens déployés par les juristes pour, sinon la surmonter, du moins la contenir, que la présente thèse est consacrée. Malgré cette confusion et ce désordre, un constat général d'homogénéité et de stabilité des discours judiciaire et juridique sur le préjudice extrapatrimonial peut d'abord être tracé. Le dommage moral et le préjudice extrapatrimonial (les deux étant couramment assimilés) sont réputés difficilement réparables. Afin de contenir l'arbitraire et la subjectivité qui caractérisent le préjudice extrapatrimonial, un discours dominant rationnel et raisonnable s'est construit et une évaluation globale du préjudice est pratiquée par les juges. Il en résulte une stabilité des montants des dommages et intérêts octroyés à titre de réparation. Mais pourquoi autant de mots pour décrire une même réalité? Dommage et préjudice sont actuellement employés en droit québécois comme s'ils étaient terminologiquement et conceptuellement indistincts; il en résulte une sursimplification de la responsabilité civile. Nous proposons que le dommage (qu'il soit corporel, matériel ou moral) et le préjudice (qu'il soit extrapatrimonial ou patrimonial) sont distincts. Le dommage se qualifie au siège de l'atteinte (des corps, des choses, des sentiments et valeurs) et le préjudice se qualifie au regard de la nature des répercussions du dommage (répercussions patrimoniales ou extrapatrimoniales). Ainsi distingués, dommage et préjudice retrouvent un sens tout en faisant ressortir les deux temps composant la responsabilité civile: l'établissement d'une responsabilité à l'aide de la faute, du dommage et du lien de causalité les unissant (1er temps) et la réparation du préjudice accompagnant le dommage (2e temps). Par une telle distinction, la sursimplification de la responsabilité civile est dépassée et force est de constater que bien peu de choses sont dites dans les jugements sur la substance du dommage moral et même sur le dommage moral tout court. Le discours dominant porte essentiellement sur la difficile détermination de la quotité des dommages et intérêts pour réparer le préjudice extrapatrimonial. Si le dommage moral et le préjudice extrapatrimonial n'étaient pas confondus et employés par les juristes avec une apparente cohérence, une synthèse des chefs de préjudice extrapatrimonial, telle qu'envisagée au départ, aurait peut-être été possible…
Resumo:
L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.
Resumo:
La réparation par excision de nucléotides (NER) est une voie critique chez l'homme pour enlever des lésions qui déforment l’hélice d'ADN et qui bloquent à la fois la réplication et la transcription. Parmi ces lésions, il y a les dimères cyclobutyliques de pyrimidines (CPDs) et les adduits pyrimidine (6-4) pyrimidone (6-4PPs) induient par les rayons ultraviolets. L'importance physiologique de la NER est mise en évidence par l’existence de la maladie Xeroderma pigmentosum (XP), causée par des mutations affectant des gènes impliqués dans cette voie de réparation. Les personnes atteintes sont caractérisées par une photosensibilité extrême et une forte prédisposition à développer des tumeurs cutanées (plus de 1000 fois). Les patients atteints du type variant de la maladie Xeroderma pigmentosum (XPV), apparemment compétents en réparation, portent plutôt des mutations dans le gène codant pour l'ADN polymérase η (polη). Polη est une ADN polymérase translésionnelle capable de contourner avec une grande fidélité certaines lésions telles que les CPDs, qui autrement bloquent les polymérases réplicatives. Ainsi, la polη prévient la formation de mutations et permet la reprise de la synthèse d'ADN. L'objectif principal de cette thèse est d'évaluer le rôle potentiel de voies de signalisation majeures dans la régulation de la NER, dont celles régulées par la kinase ATR (Ataxia Télangiectasia and Rad3-related kinase). Suite à l'irradiation UV, ATR est rapidement activée et phosphoryle des centaines de protéines qui régulent les points de contrôle du cycle cellulaire et joue un rôle notoire dans le maintient de la stabilité génomique. Nous avons postulé qu’ATR puisse réguler la NER de manière dépendante du cycle cellulaire. Cependant, tester cette hypothèse représente un grand défi car, pour des raisons techniques, les méthodes conventionnelles n’ont pas à ce jour été adaptées pour l'évaluation de la cinétique de réparation au cours des différentes phases du cycle cellulaire. Nous avons donc développé une méthode novatrice basée sur la cytométrie en flux permettant de quantifier avec grande précision la cinétique de réparation des 6-4PPs et CPDs dans chacune des phases G0/G1, S et G2/M. Avec cette nouvelle méthode, nous avons pu démontrer que l'inhibition d'ATR ou polη résulte en une très forte inhibition de la NER exclusivement durant la phase S du cycle cellulaire. Ces études ont révélé, pour la première fois, une fonction critique pour ces protéines dans le retrait des lésions qui bloquent la réplication. En outre, nous avons démontré que la synthèse d'ADN est indispensable pour l’inhibition de la réparation en phase-S, reflétant un lien potentiel entre la NER et la réplication. Curieusement, nous avons également montré que parmi six lignées cellulaires tumorales choisies aléatoirement, trois présentent une abrogation totale de la NER uniquement pendant la phase S, ce qui indique que de nombreux cancers humains pourraient être caractérisés par un tel défaut. Nos observations pourraient avoir d'importantes implications pour le traitement du cancer. En effet, le statut de la NER semble constituer un déterminant majeur dans la réponse clinique aux médicaments chimiothérapeutiques tels que le cisplatine, qui inhibent la croissance des cellules cancéreuses via l'induction de lésions à l’ADN.
Resumo:
Une partie du travail a mené a un dépôt de brevet.
Resumo:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
Resumo:
Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.
Resumo:
Le principe de précaution est devenu une véritable méta-norme, censée encadrer les décisions concernant certains choix scientifiques et technologiques en situation d’incertitudes cumulées et de controverses. Il lie des dimensions scientifique, éthique et politique. Puisqu’il est souvent associé au principe de participation, voire parfois au pluralisme, l’objet principal de cet article est d’analyser les différentes interprétations, souvent partielles, et parfois contradictoires, qui lui furent attribuées lors d’un débat national organisé par le Conseil Economique et Social (français), « Débat sur les OGM et les essais au champ » (2002). Il est vrai que ce principe doit normalement s’appliquer dans des circonstances spécifiques, notamment dans le cas d’une forte incertitude due aux limites de l’expertise scientifique qui ne peut pas servir d’excuses pour ne pas prendre les décisions appropriées, face à des risques qui pourraient provoquer des dommages graves et/ou irréversibles. En 2002 il était déjà formulé dans des lois françaises, censées connues par les principaux protagonistes de ce débat. Plutôt que de raisonner sur le principe de précaution in abstracto, nous allons analyser comment il est « mis à l’épreuve » dans ce cadre institutionnel très original, puisqu’il réunissait experts, étudiants, et quatre “sages”.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
Le phénomène de la création dans le cadre d’un discours sur la création – la production littéraire et artistique – ne va pas de soi. La tâche de le circonscrire comme un objet est antinomique : l’expérience du discours est en soi une création. Alors que le langage écrit semble au plus souvent «supprimer» l’auteur, le processus de création implique un «Je» créateur qui pense, qui se transforme, qui vit et dont la pensée s’imbrique à son objet qui, quant à lui, est «supprimé»; car il n’est pas extérieur à la pensée mais en relation avec elle. Ce travail, qui démontre le rapport complexe entre l’objet, la critique, le sujet et le commentaire, se penche donc sur l’«avant», le «pendant» et l’«après» de la création, dans un acte de mémoire, qui découle d’une performance littéraire sur la création. Des forces motrices informes et inconscientes, à la mise en forme jusqu’à la transmission, qui lui redonne un caractère d’informe, la création est en mouvement, comme le savoir est toujours prisonnier d’un «work in progress». Tributaire d’Antonin Artaud, le texte s’inscrit à partir de l’artiste en guise d’archétype existentiel, et s’y réfère constamment pour témoigner de la création sans la détacher de la vie et de ses expériences. Pour accéder au mystère du processus de création, lié à la pensée subjective, inobjectivable et irréductible au discours linéaire, ce travail met l’accent sur les associations de la pensée qui procède, exprimées par un «Je» exemplaire omniprésent, tatoué par l’expérience, mais à la position ambiguë à titre d’auteur. Processus de vie, de pensée et de création sont non seulement entremêlés, mais traversés par le champ du tout autre, historique, mondial et social, en perpétuelle évolution. Le rôle du créateur n’est pas de ne créer qu’à partir des connaissances extérieures à lui, mais à partir de lui-même – de son moi multiple et de sa pensée imprégnée de lectures et de ce qui le traverse et l’habite dans un temps donné – pour aboutir à la mise en forme d’un texte cohérent, d’une gravure particulière de l’esprit en marche vers le savoir, qui se situe toujours dans le devenir.