495 resultados para Débit expiratoire de pointe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this thesis is to improve knowledge on mechanisms involved in the response to nitrogen limitation and in lipid accumulation in the microalgae haptophyte Tisochrysis lutea. The wild type strain and a lipid accumulating mutant strain were grown under different nitrogen limitation and starvation and analyzed by functional genomics. Four genes of high-affinity nitrate/nitrite transporter (Nrt2) were identified and characterized to reveal the mechanisms involved in mineral absorption in this species. Transcriptomes of both strains were sequenced and proteins affected by nitrogen starvation and differentially expressed between the two strains were identified. We so identified the functions regulated by nitrogen deficiency and potentially involved in the accumulation of storage lipids. The responses of both strains to thin variations of nitrogen limitation were studied. The results of high-throughput proteomic analyzes suggest that the lipid-accumulation in the mutant strain is the result of carbon metabolism impacted overall, this spurred on signaling mechanisms. Two proteins have been studied since probably involved in carbon and nitrogen remobilization from amino acids catabolism during nitrogen limitation. This work increases knowledge on haptophytes, and brings assumptions on metabolic key involved in nitrogen limitation and carbon allocation in microalgae.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In May, June and July 1996, samples wcre collected along one transect greatly influenced by river discharge (eastern side of the gulf), along one transect slightly influence by river discharge (western side), at one station Iocated in the mouth of the main river (River Daugava), at one station located in the center of the Gulf and at several nearshore locations of the western side. Ratios of rnolecular concentrations of in situ dissolved ioorganic nitrogen, phosphorus and silicon, as weIl as enrichment bioassays were llsed to dctcrrnine which nutrient (s) lirnited the potential biomass of phytoplankton. Both comparison of (NO.d-N02+NJ.L): P04 (DIN: DIP) values with Redfic1d's ratio and bioassay inspection led to the sarne conclusions. Phosphorus was clearly the nutrient most limiting for the potcntial biornass of test species in nitrogen- rich waters, which occurred in mid spring, in the upper layer of the southern-eastern part of the Gulf which is greatly influenced by river discharge. In late spring, with the decrease of the total DIN reserve, nitrogen and phosphorus showed an equallimiting role. In deeper layers of this area and out of the river plume (western side and central part of the gulf), nitrogen was the limiting nutrient. In summer, whcn river discharge was the lowest, a11 DIN concentrations but one ranged between 1.6 and 2.6 µM, and the whole area was nitrogen-limited for both the cyanobacterial and the algal test strains. In 74% of the samples for which nitrogen was the limiting nutrient, phosphorus was recorded to be the second potentially limiting nutrient. In contrast, silicon never appeared as limiting the growth potential of either Microcystis aeruginosa or Phaeodactylum tricornutum; phosphorus was the limiting nutrient when DIN: Si03 values were >1 (in May), but DIN: Si03 was <1 when nitrogen was limiting (June and July). The authors conclude that the recently reported decrease of silicon loading in coastal waters and its subsequent enhanced importance in pushing the outcome of species competition towards harmful species may not yet be the most important factor for the Gulf of Riga. Iron appeared for 12% of the tests in the list of nutrients limiting the potential biomass. Tentative results also indicated that a significant fraction of the nitrogen (~,4 µg-atom N 1(-1) taken up by Microcystis aeruginosa may have been in the form of dissolved organic nitrogen (DON). It is thus also suggested tentatively that more attention be paid to these nitrients during further research in the Gulf of Riga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires ont un impact considérable sur la vie des Canadiens, et de nombreux efforts ont permis d’identifier différents facteurs de risque associés à cette condition. L’hypertension artérielle représente un de ces facteurs modifiables les plus importants. Quoique l’hypertension est définie à l’aide de mesures de pression artérielle en périphérie, il devient de plus en plus apparent que la mesure de pression centrale et de ses composantes auraient des avantages au niveau de la prédiction de la survenue d’événements cardiovasculaires. Le présent mémoire vise à mieux caractériser deux déterminants de cette pression centrale, le traitement antihypertenseur à base de bêtabloqueurs et l’insuffisance rénale chronique précoce. En utilisant les données recueillies dans la banque de données populationnelle CARTaGENE, il a été possible à l’aide d’analyses statistiques par appariement basé sur le coefficient de propension de démontrer que l’utilisation d’agents antihypertensifs de type bêtabloqueurs était associée à un profil hémodynamique central défavorable. Ainsi, les individus recevant ces agents avaient une pression centrale et une amplification artérielle plus élevées que des individus du groupe contrôle apparié et ce, malgré une pression périphérique identique. Cet effet semblait être incomplètement expliqué par la réduction du rythme cardiaque associé à l’utilisation de bêtabloqueurs. Aussi, il a été démontré que l’insuffisance rénale chronique de stade 3 (débit de filtration glomérulaire estimé entre 30 et 60 mL/min/1.73m2) n’était pas associée à une élévation des paramètres hémodynamiques centraux, contrairement à ce qui avait déjà été décrit chez des individus avec insuffisance rénale chronique plus avancée. De plus, le niveau d’albuminurie ne serait également pas associé à un changement du profil central dans un sous-groupe de la cohorte CARTaGENE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les nourrissons, vu la grande compliance de leur cage thoracique, doivent maintenir activement leur volume pulmonaire de fin d’expiration (VPFE). Ceci se fait par interruption précoce de l’expiration, et par le freinage expiratoire au niveau laryngé et par la persistance de la contraction des muscles inspiratoires. Chez les nourrissons ventilés mécaniquement, notre équipe a montré que le diaphragme est activé jusqu’à la fin de l’expiration (activité tonique). Il n’est pas clair si cette activité tonique diaphragmatique compense pour l’absence de freinage laryngé liée à l’intubation endotrachéale. Objectif : Notre objectif est de déterminer si l’activité tonique diaphragmatique persiste après l’extubation chez les nourrissons et si elle peut être observée chez les enfants plus âgés. Méthode : Ceci est une étude observationnelle longitudinale prospective de patients âgés de 1 semaine à 18 ans admis aux soins intensifs pédiatriques (SIP), ventilés mécaniquement pour >24 heures et avec consentement parental. L’activité électrique du diaphragme (AEdi) a été enregistrée à l’aide d’une sonde nasogastrique spécifique à 4 moments durant le séjour aux SIP : en phase aigüe, pré et post-extubation et au congé. L’AEdi a été analysée de façon semi-automatique. L’AEdi tonique a été définie comme l’AEdi durant le dernier quartile de l’expiration. Résultats : 55 patients avec un âge médian de 10 mois (écart interquartile: 1-48) ont été étudiés. Chez les nourrissons (<1an, n=28), l’AEdi tonique en pourcentage de l’activité inspiratoire était de 48% (30-56) en phase aigüe, 38% (25-44) pré-extubation, 28% (17-42) post-extubation et 33% (22-43) au congé des SIP (p<0.05, ANOVA, avec différence significative entre enregistrements 1 et 3-4). Aucun changement significatif n’a été observé pré et post-extubation. L’AEdi tonique chez les patients plus âgés (>1an, n=27) était négligeable en phases de respiration normale (0.6mcv). Par contre, une AEdi tonique significative (>1mcv et >10%) a été observée à au moins un moment durant le séjour de 10 (37%) patients. La bronchiolite est le seul facteur indépendant associé à l’activité tonique diaphragmatique. Conclusion : Chez les nourrissons, l’AEdi tonique persiste après l’extubation et elle peut être réactivée dans certaines situations pathologiques chez les enfants plus âgés. Elle semble être un indicateur de l’effort du patient pour maintenir son VPFE. D’autres études devraient être menées afin de déterminer si la surveillance de l’AEdi tonique pourrait faciliter la détection de situations de ventilation inappropriée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires ont un impact considérable sur la vie des Canadiens, et de nombreux efforts ont permis d’identifier différents facteurs de risque associés à cette condition. L’hypertension artérielle représente un de ces facteurs modifiables les plus importants. Quoique l’hypertension est définie à l’aide de mesures de pression artérielle en périphérie, il devient de plus en plus apparent que la mesure de pression centrale et de ses composantes auraient des avantages au niveau de la prédiction de la survenue d’événements cardiovasculaires. Le présent mémoire vise à mieux caractériser deux déterminants de cette pression centrale, le traitement antihypertenseur à base de bêtabloqueurs et l’insuffisance rénale chronique précoce. En utilisant les données recueillies dans la banque de données populationnelle CARTaGENE, il a été possible à l’aide d’analyses statistiques par appariement basé sur le coefficient de propension de démontrer que l’utilisation d’agents antihypertensifs de type bêtabloqueurs était associée à un profil hémodynamique central défavorable. Ainsi, les individus recevant ces agents avaient une pression centrale et une amplification artérielle plus élevées que des individus du groupe contrôle apparié et ce, malgré une pression périphérique identique. Cet effet semblait être incomplètement expliqué par la réduction du rythme cardiaque associé à l’utilisation de bêtabloqueurs. Aussi, il a été démontré que l’insuffisance rénale chronique de stade 3 (débit de filtration glomérulaire estimé entre 30 et 60 mL/min/1.73m2) n’était pas associée à une élévation des paramètres hémodynamiques centraux, contrairement à ce qui avait déjà été décrit chez des individus avec insuffisance rénale chronique plus avancée. De plus, le niveau d’albuminurie ne serait également pas associé à un changement du profil central dans un sous-groupe de la cohorte CARTaGENE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les nourrissons, vu la grande compliance de leur cage thoracique, doivent maintenir activement leur volume pulmonaire de fin d’expiration (VPFE). Ceci se fait par interruption précoce de l’expiration, et par le freinage expiratoire au niveau laryngé et par la persistance de la contraction des muscles inspiratoires. Chez les nourrissons ventilés mécaniquement, notre équipe a montré que le diaphragme est activé jusqu’à la fin de l’expiration (activité tonique). Il n’est pas clair si cette activité tonique diaphragmatique compense pour l’absence de freinage laryngé liée à l’intubation endotrachéale. Objectif : Notre objectif est de déterminer si l’activité tonique diaphragmatique persiste après l’extubation chez les nourrissons et si elle peut être observée chez les enfants plus âgés. Méthode : Ceci est une étude observationnelle longitudinale prospective de patients âgés de 1 semaine à 18 ans admis aux soins intensifs pédiatriques (SIP), ventilés mécaniquement pour >24 heures et avec consentement parental. L’activité électrique du diaphragme (AEdi) a été enregistrée à l’aide d’une sonde nasogastrique spécifique à 4 moments durant le séjour aux SIP : en phase aigüe, pré et post-extubation et au congé. L’AEdi a été analysée de façon semi-automatique. L’AEdi tonique a été définie comme l’AEdi durant le dernier quartile de l’expiration. Résultats : 55 patients avec un âge médian de 10 mois (écart interquartile: 1-48) ont été étudiés. Chez les nourrissons (<1an, n=28), l’AEdi tonique en pourcentage de l’activité inspiratoire était de 48% (30-56) en phase aigüe, 38% (25-44) pré-extubation, 28% (17-42) post-extubation et 33% (22-43) au congé des SIP (p<0.05, ANOVA, avec différence significative entre enregistrements 1 et 3-4). Aucun changement significatif n’a été observé pré et post-extubation. L’AEdi tonique chez les patients plus âgés (>1an, n=27) était négligeable en phases de respiration normale (0.6mcv). Par contre, une AEdi tonique significative (>1mcv et >10%) a été observée à au moins un moment durant le séjour de 10 (37%) patients. La bronchiolite est le seul facteur indépendant associé à l’activité tonique diaphragmatique. Conclusion : Chez les nourrissons, l’AEdi tonique persiste après l’extubation et elle peut être réactivée dans certaines situations pathologiques chez les enfants plus âgés. Elle semble être un indicateur de l’effort du patient pour maintenir son VPFE. D’autres études devraient être menées afin de déterminer si la surveillance de l’AEdi tonique pourrait faciliter la détection de situations de ventilation inappropriée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-dede 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La phase haploïde de la spermatogenèse (spermiogenèse) est caractérisée par une modification importante de la structure de la chromatine et un changement de la topologie de l’ADN du spermatide. Les mécanismes par lesquels ce changement se produit ainsi que les protéines impliquées ne sont pas encore complètement élucidés. Mes travaux ont permis d’établir la présence de cassures bicaténaires transitoires pendant ce remodelage par l’essai des comètes et l’électrophorèse en champ pulsé. En procédant à des immunofluorescences sur coupes de tissus et en utilisant un extrait nucléaire hautement actif, la présence de topoisomérases ainsi que de marqueurs de systèmes de réparation a été confirmée. Les protéines de réparation identifiées font partie de systèmes sujets à l’erreur, donc cette refonte structurale de la chromatine pourrait être génétiquement instable et expliquer le biais paternel observé pour les mutations de novo dans de récentes études impliquant des criblages à haut débit. Une technique permettant l’immunocapture spécifique des cassures bicaténaires a été développée et appliquée sur des spermatides murins représentant différentes étapes de différenciation. Les résultats de séquençage à haut débit ont montré que les cassures bicaténaires (hotspots) de la spermiogenèse se produisent en majorité dans l’ADN intergénique, notamment dans les séquences LINE1, l’ADN satellite et les répétions simples. Les hotspots contiennent aussi des motifs de liaisons des protéines des familles FOX et PRDM, dont les fonctions sont entre autres de lier et remodeler localement la chromatine condensée. Aussi, le motif de liaison de la protéine BRCA1 se trouve enrichi dans les hotspots de cassures bicaténaires. Celle-ci agit entre autres dans la réparation de l’ADN par jonction terminale non-homologue (NHEJ) et dans la réparation des adduits ADN-topoisomérase. De façon remarquable, le motif de reconnaissance de la protéine SPO11, impliquée dans la formation des cassures méiotiques, a été enrichi dans les hotspots, ce qui suggère que la machinerie méiotique serait aussi utilisée pendant la spermiogenèse pour la formation des cassures. Enfin, bien que les hotspots se localisent plutôt dans les séquences intergéniques, les gènes ciblés sont impliqués dans le développement du cerveau et des neurones. Ces résultats sont en accord avec l’origine majoritairement paternelle observée des mutations de novo associées aux troubles du spectre de l’autisme et de la schizophrénie et leur augmentation avec l’âge du père. Puisque les processus du remodelage de la chromatine des spermatides sont conservés dans l’évolution, ces résultats suggèrent que le remodelage de la chromatine de la spermiogenèse représente un mécanisme additionnel contribuant à la formation de mutations de novo, expliquant le biais paternel observé pour certains types de mutations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche avait pour objectif de tracer le portrait des habiletés graphomotrices d’élèves de deuxième année du primaire fréquentant le milieu scolaire francophone québécois. Elle visait aussi à comparer l’évolution au cours de la deuxième année du primaire des habiletés graphomotrices, orthographiques et rédactionnelles des participants selon le style d’écriture appris et mobilisé (script ou cursif) et en fonction de différents niveaux graphomoteurs (fort et faible). Globalement, les résultats suggèrent que les élèves québécois de deuxième année, qu’ils écrivent en script ou en cursif depuis le début de leur scolarisation, ont une fluidité graphomotrice qui est comparable et qui se traduit par la production en moyenne d’environ 14 lettres lisibles par minute en début d’année et de 20 en fin d’année. Tant en script qu’en cursif, la vitesse d’écriture des élèves de deuxième année évolue positivement en cours d’année, mais ceux qui écrivent en script manifestent une progression de vitesse plus marquée. En revanche, concernant la lisibilité des lettres, les élèves qui écrivent en script atteignent un plateau en début d’année, alors qu’une amélioration s’observe entre le début et la fin de la deuxième année chez les élèves qui écrivent en cursif. La comparaison des performances et de l’évolution des habiletés orthographiques et rédactionnelles des élèves de deuxième année pointe des écarts importants pour les variables d’orthographe en copie différée, de longueur et de contenu des textes selon que les élèves présentent une bonne ou une faible fluidité graphomotrice, indépendamment du style d’écriture mobilisé (script ou cursif). Finalement, du point de vue de l’évolution des habiletés orthographiques et rédactionnelles, l'étude n’a pas permis d’identifier un avantage pour l’un ou l’autre des styles d’écriture, et ce, tant chez les élèves forts sur le plan graphomoteur que chez les élèves plus faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).