903 resultados para replacement of RGPs
Resumo:
Neste projeto pretende-se utilizar uma fonte energética renovável (nomeadamente a biomassa), no âmbito da produção de água quente para aquecimento central das instalações do Instituto Superior de Engenharia do Porto (ISEP). O objetivo principal remete para a avaliação técnico-económica da substituição das quinze caldeiras existentes, alimentadas a gás natural, por seis caldeiras alimentadas a biomassa, nomeadamente a pellets. Desta forma, permite-se apostar na biomassa como uma alternativa para reduzir a dependência dos combustíveis fósseis. Neste trabalho apresenta-se uma comparação realista do sistema de aquecimento existente face ao novo a implementar, alimentado por um combustível renovável utilizando caldeiras a pellets de 85% de rendimento. Para realizar esta comparação, usou-se as faturas energéticas de gás natural do ISEP, o custo da quantidade equivalente necessária de pellets, os custos de manutenção dos dois tipos de caldeiras e, os custos do consumo de energia elétrica por parte de ambas as caldeiras. Com este estudo, estimou-se uma poupança anual de 84.100,76 €/ano. Determinaram-se experimentalmente, em laboratório, os parâmetros essenciais de uma amostra de pellets, que foram usados para calcular as necessidades energéticas em biomassa no ISEP, bem como a produção de cinzas gerada por parte das caldeiras. Foi proposto um destino ambientalmente adequado para os 788,5 kg/ano de cinzas obtidas – a utilização na compostagem, após tratamento e aprovação de ensaios ecotoxicológicos realizados pela empresa que fará a sua recolha. As caldeiras a pellets terão um consumo mínimo teórico de 16,47 kgpellets/h, consumindo previsivelmente 197,13 tpellets/ano. Para este efeito, serão usadas caldeiras Quioto de 150 kW da marca Zantia. Para comparar distintas possibilidades de investimento para o projeto, avaliaram-se dois cenários: um foi escolhido de forma a cobrir o somatório da potência instalada das caldeiras atuais e o outro de forma a responder aos consumos energéticos em aquecimento atuais. Além disso, avaliaram-se cenários de financiamento do investimento distintos: um dos cenários corresponde ao pagamento do investimento total do projeto no momento da aquisição das caldeiras, enquanto o outro cenário, mais provável de ser escolhido, refere-se ao pedido de um empréstimo ao banco, no valor de 75% do investimento total. Para o cenário mais provável de investimento, obteve-se um VAL de 291.364,93 €/ano, com taxa interna de rentabilidade (TIR) de 17 %, um índice de rentabilidade (IR) de 1,85 e um período de retorno (PBP) de 5 anos. Todos os cenários avaliados registam rentabilidade do projeto de investimento, sem risco para o projeto.
Resumo:
A crescente necessidade de reduzir a dependência energética e a emissão de gases de efeito de estufa levou à adoção de uma série de políticas a nível europeu com vista a aumentar a eficiência energética e nível de controlo de equipamentos, reduzir o consumo e aumentar a percentagem de energia produzida a partir de fontes renováveis. Estas medidas levaram ao desenvolvimento de duas situações críticas para o setor elétrico: a substituição das cargas lineares tradicionais, pouco eficientes, por cargas não-lineares mais eficientes e o aparecimento da produção distribuída de energia a partir de fontes renováveis. Embora apresentem vantagens bem documentadas, ambas as situações podem afetar negativamente a qualidade de energia elétrica na rede de distribuição, principalmente na rede de baixa tensão onde é feita a ligação com a maior parte dos clientes e onde se encontram as cargas não-lineares e a ligação às fontes de energia descentralizadas. Isto significa que a monitorização da qualidade de energia tem, atualmente, uma importância acrescida devido aos custos relacionados com perdas inerentes à falta de qualidade de energia elétrica na rede e à necessidade de verificar que determinados parâmetros relacionados com a qualidade de energia elétrica se encontram dentro dos limites previstos nas normas e nos contratos com clientes de forma a evitar disputas ou reclamações. Neste sentido, a rede de distribuição tem vindo a sofrer alterações a nível das subestações e dos postos de transformação que visam aumentar a visibilidade da qualidade de energia na rede em tempo real. No entanto, estas medidas só permitem monitorizar a qualidade de energia até aos postos de transformação de média para baixa tensão, não revelando o estado real da qualidade de energia nos pontos de entrega ao cliente. A monitorização nestes pontos é feita periodicamente e não em tempo real, ficando aquém do necessário para assegurar a deteção correta de problemas de qualidade de energia no lado do consumidor. De facto, a metodologia de monitorização utilizada atualmente envolve o envio de técnicos ao local onde surgiu uma reclamação ou a um ponto de medição previsto para instalar um analisador de energia que permanece na instalação durante um determinado período de tempo. Este tipo de monitorização à posteriori impossibilita desde logo a deteção do problema de qualidade de energia que levou à reclamação, caso não se trate de um problema contínuo. Na melhor situação, o aparelho poderá detetar uma réplica do evento, mas a larga percentagem anomalias ficam fora deste processo por serem extemporâneas. De facto, para detetar o evento que deu origem ao problema é necessário monitorizar permanentemente a qualidade de energia. No entanto este método de monitorização implica a instalação permanente de equipamentos e não é viável do ponto de vista das empresas de distribuição de energia já que os equipamentos têm custos demasiado elevados e implicam a necessidade de espaços maiores nos pontos de entrega para conter os equipamentos e o contador elétrico. Uma alternativa possível que pode tornar viável a monitorização permanente da qualidade de energia consiste na introdução de uma funcionalidade de monitorização nos contadores de energia de determinados pontos da rede de distribuição. Os contadores são obrigatórios em todas as instalações ligadas à rede, para efeitos de faturação. Tradicionalmente estes contadores são eletromecânicos e recentemente começaram a ser substituídos por contadores inteligentes (smart meters), de natureza eletrónica, que para além de fazer a contagem de energia permitem a recolha de informação sobre outros parâmetros e aplicação de uma serie de funcionalidades pelo operador de rede de distribuição devido às suas capacidades de comunicação. A reutilização deste equipamento com finalidade de analisar a qualidade da energia junto dos pontos de entrega surge assim como uma forma privilegiada dado que se trata essencialmente de explorar algumas das suas características adicionais. Este trabalho tem como objetivo analisar a possibilidade descrita de monitorizar a qualidade de energia elétrica de forma permanente no ponto de entrega ao cliente através da utilização do contador elétrico do mesmo e elaborar um conjunto de requisitos para o contador tendo em conta a normalização aplicável, as características dos equipamentos utilizados atualmente pelo operador de rede e as necessidades do sistema elétrico relativamente à monitorização de qualidade de energia.
Resumo:
Os sectores da construção e demolição de edifícios são responsáveis por um elevado volume de produção de resíduos. Estes resíduos são normalmente direcionados para aterros, que se encontram, neste momento, sobrelotados. Esta falta de capacidade de receção de resíduos tem como consequência imediata o aumento dos valores monetários associados ao depósito destes materiais excedentários. Com a elevada produção destes resíduos torna-se importante a sua reciclagem e reutilização. No caso da Engenharia Civil, uma grande produtora de resíduos, seria ainda mais interessante o seu reaproveitamento imediato na área. Nesta investigação, pretendeu-se avaliar o desempenho mecânico de betões com diferentes percentagens de agregados cerâmicos vermelhos. Essa investigação passou numa fase inicial pelo estado fresco do betão, de forma a analisar a sua trabalhabilidade. Na fase seguinte, analisou-se no estado endurecido, a resistência à compressão e resistência à tração por compressão diametral. Para concretização deste objetivo produziram-se três tipos de betões: um de referência (areia fina e brita fina), um betão com incorporação de agregados finos e grossos de cerâmica vermelha, juntamente com a areia fina e a brita fina, e o terceiro, um betão com a substituição total da areia fina por cerâmica fina. A realização desta investigação, demostrou que os betões com a incorporação de agregado cerâmico vermelho apresentam resultados de boa qualidade, sendo plausível a sua utilização em estruturas.
Resumo:
Perante o elevado consumo de materiais naturais no processo e produtos na área da construção civil, o reaproveitamento de resíduos é uma das soluções a ser estudada. As cinzas agroindustriais têm lugar de destaque entre estes resíduos, pois têm a possibilidade de aplicação em materiais cimentícios, reduzindo assim o consumo de cimento de Portland. O presente estudo debruça-se sobre a substituição parcial (1,5% e 5%) de cimento de Portland por cinzas de casca de amêndoa. Realizaram-se provetes com diferentes tipos de argamassas: (i) uma de controlo sem substituição de cimento (ARF); (ii) uma com 1,5% de substituição parcial de cimento por cinzas de casca de amêndoa (CCA 1,5%); (iii) e uma com 5% de substituição parcial de cimento por cinza de casca de amêndoa (CCA 5%). Executaram-se ensaios para resistências mecânicas aos 3, 7, 14, 28 e 41 dias de idade. A nível químico pode-se concluir que esta cinza de casca de amêndoa não apresentou qualquer potencial pozolânico. A trabalhabilidade na generalidade diminui ligeiramente, contendo cinza de casca de amêndoa, mas ainda assim considerando-se de fácil manuseamento. Em relação às resistências mecânicas, pode-se concluir que o ideal é a substituição parcial de cimento com 1,5%, pois as resistências diminuem com o uso de uma maior percentagem de substituição, ou seja, o ideal é substituir em pequenas percentagens. Com os dados obtidos, conclui-se que as cinzas testadas não apresentam características necessárias para serem consideradas pozolanas e se será viável a sua utilização mesmo como filer.
Resumo:
Clozapine, an atypical antipsychotic, depends mainly on cytochrome P4501A2 (CYP1A2) for its metabolic clearance. CYP1A2 is inducible by smoking, and lower plasma concentrations of clozapine are measured in smokers than in nonsmokers. Case reports have been published on the effects of discontinuing smoking in patients receiving clozapine, which might lead to elevated plasma concentrations and severe side effects. We present 2 cases on the consequences of smoking cessation in patients receiving this drug. In the first patient, smoking cessation resulted, within 2 weeks, in severe sedation and fatigue, with an approximately 3-fold increase of plasma clozapine concentrations. In the second patient, a very high plasma concentration of clozapine (3004 ng/mL) was measured 6 days following a 16-day stay in a general hospital, during which smoking was prohibited. In the latter patient, the replacement of omeprazole, a strong CYP1A2 inducer, by pantoprazole, a weaker CYP1A2 inducer, could have contributed, in addition to smoking cessation, to the observed strong increase of plasma clozapine concentrations. Genotyping of the 2 patients revealed that they were carriers of the AA genotype for the -164C>A polymorphism (CYP1A2*1F) in intron 1 of CYP1A2 gene, which has previously been shown to confer a high inducibility of CYP1A2 by smoking. Thus, at the initiation of clozapine treatment, smoking patients should be informed that, if they decide to stop smoking, they are encouraged to do so but must inform their prescriber beforehand. Also, because of the increased use of no-smoking policies in many hospitals, studies examining the consequences of such policies on the pharmacokinetics/pharmacodynamics of drugs metabolized by CYP1A2, taking into account different CYP1A2 genotypes, are needed.
Resumo:
Our work on single molecule magnets and multifunctional magnetic materials is presented in four projects. In the first project we show for first time that heteroatomic-type pseudohalides, such as OCN-, can be employed as structure-directing ligands and ferromagnetic couplers in higher oxidation state metal cluster chemistry. The initial use of cyanato groups in Mn cluster chemistry has afforded structurally interesting MnII/III14 (1) and MnII/III/IV16 (2) clusters in which the end-on bridging cyanates show a preference in binding through their O-atom. The Mn14 compound shows entirely visible out-of-phase alternating currect signals below 5 K and large hysteresis loops below 2 K. Furthermore, the amalgamation of azido groups with the triethanolamine tripodal ligand in manganese carboxylate cluster chemistry has led to the isolation of a new ferromagnetic, high-nuclearity and mixed-valence MnII/III15Na2 (3) cluster with a large ground-state spin value of S = 14. In the second project we demonstrate a new synthetic route to purely inorganic-bridged, transition metal-azido clusters [CoII7 (4) and NiII7 (5)] and coordination polymers [{FeII/III2}n (6)] which exhibit strong ferromagnetic, SMM and long-range magnetic ordering behaviors. We also show that access to such a unique ferromagnetic class of inorganic, N-rich and O-free materials is feasible through the use of Me3SiN3 as the azido-ligand precursor without requiring the addition of any organic chelating/bridging ligand. In the last projects we have tried to bring together molecular magnetism and optics via the synthesis of multifunctional magnetic materials based on 3d- or 4f-metal ions. We decided to approach such challenge from two different directions: firstly, in our third project, by the deliberate replacement of non-emissive carboxylato ligands in known 3d-SMMs with their fluorescent analogues, without perturbing the metal-core structure and SMM properties (complexes 7, 8, and 9). The second route (last project) involves the use of naphthalene or pyridine-based polyalcohol bridging ligands for the synthesis of new polynuclear LnIII metal clusters (Ln = lanthanide) with novel topologies, SMM behaviors and luminescent properties arising from the increased efficiency of the “antenna” organic group. This approach has led us to the isolation of two new families of LnIII8 (complexes 10-13) and LnIII4 (complexes 14-20) clusters.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (LL.M.) option Nouvelles technologies de l'information"
Resumo:
La cardiomyopathie/dysplasie arythmogène du ventricule droit (ARVC/D) est un désordre d’origine génétique caractérisé par le remplacement du myocarde par du tissus fibro-adipeux dans le ventricule droit. Ce désordre est responsable d’un grand pourcentage de mort subite, spécialement chez les plus jeunes. ARVC/D est difficile à diagnostiquer avec les outils cliniques actuels. Elle est causée en grande majorité par des mutations dans les protéines desmosomales. ARVC/D a donc des implications d’une grande importance chez les membres de la famille, qui peuvent sans le savoir, être aussi à risque de mort subite. Dans le but d’améliorer le diagnostique, un nouvel outil, le test génétique, est de plus en plus utilisé. Hypothèses: Dans le but d’évaluer la valeur du test génétique en complément du test clinique classique chez ARVC/D nous avons effectué une investigation clinique et génétique chez 23 cas-index atteints. Méthodes: Les cas-index sont diagnostiqué après une mort subite dans la famille ou après un examen clinique poussé pour arythmies. Le diagnostique d’ARVC/D a été fait avec les outils cliniques selon les critères. L’analyse génétique des protéines desmosomales associées à la maladie a été effectuée en séquençant leurs exons ainsi que les régions introniques nécessaires à l’épissage alternatif. Résultats: Le diagnostique clinique était clair dans 18/23 et incertain dans 5/23 des individus. Nous avons identifié 15 différentes mutations chez 10 cas-index. 64% des mutations n’avaient jamais été décrites. De plus, nous avons observé la présence de double ou triple mutant dans 40% des cas-index positifs. Les individus avec mutations sont plus jeunes et ont plus de symptômes que les individus sans mutation. Conclusion: Les tests génétiques sont positifs dans 43% des patients avec ARVC/D. L’utilisation de la technologie génétique basée sur l’identification de mutations connues a une valeur limitée vu le haut pourcentage des mutations nouvelles dans la maladie. La présence de double, même de triple mutant n’est pas associé avec un phénotype plus sévère, mais renforce l’idée de la nécessité d’un test génétique pour tous les gènes. Le test génétique est un outil fort utile à ajouter aux tests cliniques pour le diagnostique des patients qui ne remplissent pas tous les critères cliniques de la maladie. Mots clés: génétique, ARVC/D, mort subite, desmosome
Resumo:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
Les rivières reçoivent de l'azote de leurs bassins versants et elles constituent les derniers sites de transformations des nutriments avant leur livraison aux zones côtières. Les transformations de l’azote inorganique dissous en azote gazeux sont très variables et peuvent avoir un impact à la fois sur l’eutrophisation des côtes et les émissions de gaz à effet de serre à l’échelle globale. Avec l’augmentation de la charge en azote d’origine anthropique vers les écosystèmes aquatiques, les modèles d’émissions de gaz à effet de serre prédisent une augmentation des émissions d’oxyde nitreux (N2O) dans les rivières. Les mesures directes de N2O dans le Lac Saint-Pierre (LSP), un élargissement du Fleuve Saint-Laurent (SLR) indiquent que bien qu’étant une source nette de N2O vers l'atmosphère, les flux de N2O dans LSP sont faibles comparés à ceux des autres grandes rivières et fleuves du monde. Les émissions varient saisonnièrement et inter-annuellement à cause des changements hydrologiques. Les ratios d’émissions N2O: N2 sont également influencés par l’hydrologie et de faibles ratios sont observés dans des conditions de débit d'eau plus élevée et de charge en N élevé. Dans une analyse effectuée sur plusieurs grandes rivières, la charge hydraulique des systèmes semble moduler la relation entre les flux de N2O annuels et les concentrations de nitrate dans les rivières. Dans SLR, des tapis de cyanobactéries colonisant les zones à faible concentration de nitrate sont une source nette d’azote grâce à leur capacité de fixer l’azote atmosphérique (N2). Étant donné que la fixation a lieu pendant le jour alors que les concentrations d'oxygène dans la colonne d'eau sont sursaturées, nous supposons que la fixation de l’azote est effectuée dans des micro-zones d’anoxie et/ou possiblement par des diazotrophes hétérotrophes. La fixation de N dans les tapis explique le remplacement de près de 33 % de la perte de N par dénitrification dans tout l'écosystème au cours de la période d'étude. Dans la portion du fleuve Hudson soumis à la marée, la dénitrification et la production de N2 est très variable selon le type de végétation. La dénitrification est associée à la dynamique en oxygène dissous particulière à chaque espèce durant la marée descendante. La production de N2 est extrêmement élevée dans les zones occupées par les plantes envahissantes à feuilles flottantes (Trapa natans) mais elle est négligeable dans la végétation indigène submergée. Une estimation de la production de N2 dans les lits de Trapa durant l’été, suggère que ces lits représentent une zone très active d’élimination de l’azote. En effet, les grands lits de Trapa ne représentent que 2,7% de la superficie totale de la portion de fleuve étudiée, mais ils éliminent entre 70 et 100% de l'azote total retenu dans cette section pendant les mois d'été et contribuent à près de 25% de l’élimination annuelle d’azote.
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.
Resumo:
La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part.
Resumo:
Les sélénoprotéines sont des protéines auxquelles des sélénocystéines, soit le 21e acide aminé, sont incorporées durant leur traduction. Plus précisément, la sélénocystéine (Sec) est un dérivé métabolique de la sérine, mais structurellement équivalent à une cystéine dont on a remplacé l'atome de soufre par du sélénium. Elle se distingue des autres acides aminés puisqu’elle possède sa propre synthétase qui sert à convertir la sérine en Sec alors que le résidu est déjà fixé à l’ARNt. La position d’une Sec sur l’ARNm est indiquée par le codon UGA étant habituellement un signal STOP introduisant le concept de recoding. Grâce à une machinerie métabolique spécifique à l'ARNtSec et à la présence d’un SecIS (Selenocystein Insertion Sequence) sur l’ARNm, ce codon permet la présence d'une Sec dans la protéine. Il est connu que la synthèse débute avec l’acétylation de l’ARNt[Ser]Sec par la seryl-ARNt synthétase (SerRS) afin de donner la seryl-ARNt[Ser]Sec. Cette dernière est subséquemment phosphorylée par l’O-phosphoséryl-ARNt[Ser]Sec kinase (PSTK) qui donnera l’O-phosphoséryl-ARNt[Ser]Sec. Par la suite, un complexe de plusieurs protéines et cofacteurs, agissant comme machinerie pour l’incorporation des Sec durant la traduction, s’associe avec l’ARNt[Ser]Sec puis l’ARNm et, finalement, les composantes du ribosome. Parmi ces protéines, SepSecS catalyse l’étape finale de la synthèse des Sec en convertissant le O-phosphoseryl-ARNt[Ser]Sec en selenocysteinyl-ARNt[Ser]Sec utilisant le sélénophosphate comme source de sélénium. Des études récentes montrent que l’association avec SECp43 serait nécessaire pour que SepSecS joue son rôle et soit ségrégée au noyau pour s’associer à la machinerie de biosynthèse des sélénoprotéines, soit le complexe moléculaire qui reconnaît le codon UGA. Parmi les protéines de la machinerie de biosynthèse des sélénoprotéines que nous avons analysées, il y a eEFSec, RPL30, SPS2, SPS1, SBP2 et NSEP1. Nos résultats d’analyse de la dynamique de l’interaction entre les constituants de la machinerie de biosynthèse et d’incorporation des Sec, confirment plusieurs données de la littérature, mais remettent en question le modèle jusqu’à maintenant établi. Une meilleure compréhension de la dynamique des interactions entre ses constituants et la régulation de cette dynamique permet d’émettre des hypothèses quant au rôle de la machinerie de biosynthèse des sélénoprotéines et de l’importance de sa complexité. Nous avons analysé les interactions in vivo dans des cellules HEK293T au moyen de la technique de Protein-Fragment Complementation Assay (PCA) en couplant, par un clonage moléculaire, les gènes de chacune des protéines d’intérêt avec des fragments des gènes de la protéine luciférase (hRluc). Nous avons ainsi réalisé une fusion en N-terminal et en C-terminal des fragments de luciférase pour chacune des protéines d’intérêt. Puis, nous avons analysé la dynamique des interactions avec les composantes de la machinerie de biosynthèse des Sec. D’autres travaux seront essentiels afin de bâtir sur les résultats présentés dans cette recherche.
Resumo:
À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.