26 resultados para cot
Resumo:
Abstract : Natural materials have received a full attention in many applications because they are degradable and derived directly from earth. In addition to these benefits, natural materials can be obtained from renewable resources such as plants (i.e. cellulosic fibers like flax, hemp, jute, and etc). Being cheap and light in weight, the cellulosic natural fiber is a good candidate for reinforcing bio-based polymer composites. However, the hydrophilic nature -resulted from the presence of hydroxyl groups in the structure of these fibers- restricts the application of these fibers in the polymeric matrices. This is because of weak interfacial adhesion, and difficulties in mixing due to poor wettability of the fibers within the matrices. Many attempts have been done to modify surface properties of natural fibers including physical, chemical, and physico-chemical treatments but on the one hand, these treatments are unable to cure the intrinsic defects of the surface of the fibers and on the other hand they cannot improve moisture, and alkali resistance of the fibers. However, the creation of a thin film on the fibers would achieve the mentioned objectives. This study aims firstly to functionalize the flax fibers by using selective oxidation of hydroxyl groups existed in cellulose structure to pave the way for better adhesion of subsequent amphiphilic TiO[subscript 2] thin films created by Sol-Gel technique. This method is capable of creating a very thin layer of metallic oxide on a substrate. In the next step, the effect of oxidation on the interfacial adhesion between the TiO[subscript 2] film and the fiber and thus on the physical and mechanical properties of the fiber was characterized. Eventually, the TiO[subscript 2] grafted fibers with and without oxidation were used to reinforce poly lactic acid (PLA). Tensile, impact, and short beam shear tests were performed to characterize the mechanical properties while Thermogravimetric analysis (TGA), Differential Scanning Calorimetry (DSC), Dynamic mechanical analysis (DMA), and moisture absorption were used to show the physical properties of the composites. Results showed a significant increase in physical and mechanical properties of flax fibers when the fibers were oxidized prior to TiO[subscript 2] grafting. Moreover, the TiO[subscript 2] grafted oxidized fiber caused significant changes when they were used as reinforcements in PLA. A higher interfacial strength and less amount of water absorption were obtained in comparison with the reference samples.
Resumo:
Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
Résumé : Cette juxtaposition de matériaux solides -blocs, pierres ou briques,...- liés ou non entre eux que nous appelons maçonnerie ne se comporte pas très bien vis-à-vis des forces latérales, surtout si elle n’a pas été réalisée suivant les normes parasismiques ou de façon adéquate. Cette vulnérabilité (glissement, cisaillement, déchirure en flexion, ou tout autre) vient souvent du fait même de ce processus d’empilement, des problèmes d’interaction avec le reste de la structure et aussi à cause des caractéristiques mécaniques peu fiables de certains éléments utilisés. Malgré cette défaillance structurale, la maçonnerie est encore utilisée aujourd’hui grâce à son côté traditionnel, sa facilité de mise en œuvre et son coût d’utilisation peu élevé. Depuis quelques années, la maçonnerie s’est enrichie de documents qui ont été publiés par divers chercheurs dans le but d’une meilleure compréhension des caractéristiques mécaniques des éléments et aussi, et surtout, des mécanismes de rupture des murs de maçonnerie pour une meilleure réponse face aux sollicitations sismiques. Beaucoup de programmes expérimentaux ont alors été effectués et tant d’autres sont encore nécessaires. Et c’est dans ce contexte que cette recherche a été conduite. Elle présentera, entre autres, le comportement sous charges latérales d’un mur en maçonnerie armée entièrement rempli de coulis. Ce projet de recherche fait partie d’un programme plus large visant à une meilleure connaissance du comportement sismique de la maçonnerie pour une amélioration des techniques de construction et de réparation des ouvrages en maçonnerie.
Resumo:
Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.
Resumo:
La fixation biologique d’azote (réduction du N2 atmosphérique, non biodisponible, en ammonium (NH3) bioassimilable) est catalysée par la métalloenzyme nitrogénase. Cette enzyme existe sous trois isoformes chez la bactérie du sol Azotobacter vinelandii: les nitrogénases au molybdène (Mo), au vanadium (V) et au fer (Fe). L’acquisition des métaux cofacteurs constitue un paramètre d’intérêt majeur car Mo et V sont fortement complexés à la matrice (matière organique et oxydes) ce qui peut limiter leur disponibilité. Ces travaux ont montré que la présence d’acide tannique et d’oxydes de fer entraîne des changements majeurs dans la gestion des métaux cofacteurs (Mo et V) chez A. vinelandii. Les stratégies d’acquisition des métaux cofacteurs sont fortement modifiées en présence de ces complexants avec (i) un changement important de la quantité des metallophores produits ainsi que (ii) une acquisition simultanée de Mo et V dans des conditions traditionnellement considérées comme non limitantes en Mo. Ceci se traduit par un changement important dans l’utilisation des nitrogénases; les niveaux de transcrits élevés des gènes nifD et vnfD, spécifiques des nitrogénases au Mo et au V respectivement, suggèrent une utilisation simultanée de ces isoenzymes pour assurer la fixation d’azote. Ce projet a permis de mettre en évidence que face à un stress métallique, l’utilisation des isoformes de la nitrogénase par A. vinelandii est un processus plus versatile que précédemment décrit et que le coût d’acquisition des métaux dans ces conditions constitue un facteur important de la régulation de l’activité des nitrogénases. Ceci suggère que les nitrogénases alternatives pourraient contribuer à la fixation d’azote de manière plus importante que présentement admis.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Résumé : Au Canada, près de 80% des émissions totales, soit 692 Mt eq. CO[indice inférieur 2], des gaz à effet de serre (GES) sont produits par les émissions de dioxyde de carbone (CO[indice inférieur 2]) provenant de l’utilisation de matières fossiles non renouvelables. Après la Conférence des Nations Unies sur les changements climatiques, COP21 (Paris, France), plusieurs pays ont pour objectif de réduire leurs émissions de GES. Dans cette optique, les microalgues pourraient être utilisées pour capter le CO[indice inférieur 2] industriel et le transformer en biomasse composée principalement de lipides, de glucides et de protéines. De plus, la culture des microalgues n’utilise pas de terre arable contrairement à plusieurs plantes oléagineuses destinées à la production de biocarburants. Bien que les microalgues puissent être transformées en plusieurs biocarburants tels le bioéthanol (notamment par fermentation des glucides) ou le biométhane (par digestion anaérobie), la transformation des lipides en biodiesel pourrait permettre de réduire la consommation de diesel produit à partir de pétrole. Cependant, les coûts reliés à la production de biodiesel à partir de microalgues demeurent élevés pour une commercialisation à court terme en partie parce que les microalgues sont cultivées en phase aqueuse contrairement à plusieurs plantes oléagineuses, ce qui augmente le coût de récolte de la biomasse et de l’extraction des lipides. Malgré le fait que plusieurs techniques de récupération des lipides des microalgues n’utilisant pas de solvant organique sont mentionnées dans la littérature scientifique, la plupart des méthodes testées en laboratoire utilisent généralement des solvants organiques. Les lipides extraits peuvent être transestérifiés en biodiesel en présence d’un alcool tel que le méthanol et d’un catalyseur (catalyses homogène ou hétérogène). Pour la commercialisation du biodiesel à partir de microalgues, le respect des normes ASTM en vigueur est un point essentiel. Lors des essais en laboratoire, il a été démontré que l’extraction des lipides en phase aqueuse était possible afin d’obtenir un rendement maximal en lipides de 36% (m/m, base sèche) en utilisant un prétraitement consistant en une ébullition de la phase aqueuse contenant les microalgues et une extraction par des solvants organiques. Pour l’estérification, en utilisant une résine échangeuse de cations (Amberlyst-15), une conversion des acides gras libres de 84% a été obtenue à partir des lipides de la microalgue Chlorella protothecoïdes dans les conditions suivantes : température : 120°C, pression autogène, temps de réaction : 60 min, ratio méthanol/lipides: 0.57 mL/g et 2.5% (m/m) Amberlyst-15 par rapport aux lipides. En utilisant ces conditions avec une catalyse homogène (acide sulfurique) et une seconde étape alcaline avec de l’hydroxyde de potassium (température : 60°C ; temps de réaction : 22.2 min; ratio catalyseur microalgue : 2.48% (m/m); ratio méthanol par rapport aux lipides des microalgues : 31.4%), un rendement en esters méthyliques d’acides gras (EMAG) de 33% (g EMAG/g lipides) a été obtenu à partir des lipides de la microalgue Scenedesmus Obliquus. Les résultats démontrent que du biodiesel peut être produit à partir de microalgues. Cependant, basé sur les présents résultats, il sera necessaire de mener d’autre recherche pour prouver que les microalgues sont une matière première d’avenir pour la production de biodiesel.
Resumo:
Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.
Développement des bétons autoplaçants à faible teneur en poudre, Éco-BAP: formulation et performance
Resumo:
Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.