280 resultados para Pointe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fondé sur l’analyse des données produites par l’enquête « 1-2-3 » de 2012 en République Démocratique du Congo, cet article propose une approche quantitative de l’automédication. Il fait apparaître, le caractère relativement circonscrit de cette pratique dans les déclarations des individus confrontés à un épisode de maladie et tente de rendre compte des choix qui les guident : consulter un professionnel de santé, affirmer recourir à l’automédication, s’abstenir de se soigner ou recourir à l’automédication par défaut. La construction d’un modèle logistique multinomial non-ordonné permet à cet égard de comparer les déterminants de ces décisions, considérées sous la forme d’une double alternative : consulter ou recourir à l’automédication, et, pour ceux qui ne sollicitent pas un professionnel de santé, s’automédiquer ou s’abstenir de toute démarche thérapeutique. L’article pointe ainsi les contraintes (économiques, géographiques, sociales et culturelles) qui pèsent sur ces choix tout en soulignant comment les individus cherchent à s’en affranchir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quelques sites archéologiques comme Olympie, Stymphalos et Olynthe possèdent respectivement un répertoire faisant l’étude des armes de jet retrouvées durant une série de campagnes de fouilles archéologiques. Parmi ces indexes, figurent fréquemment des pointes de flèche, des balles de fronde et des saurotères (contrepoids de lance ou de javelot) provenant de différentes périodes historiques gréco-romaines. À travers les 20e et 21e siècle de notre ère, des spécialistes comme D. Robinson (1931), A. Snodgrass (1964), H. Baitinger (2001), C. Hagerman (2014) dédièrent une partie de leur expertise pour produire des synthèses sur ces objets jadis négligés. Ainsi, ils parvinrent à créer de grandes encyclopédies commentées composées de projectiles retrouvés en sol grec. À l’aide de ces bases de données, les archéologues militaires sont en mesure d’établir des datations et l’origine prétendue de certains types de projectiles. Jusqu’en 2015, les artéfacts militaires trouvés sur le site archéologique d’Argilos n’avaient jamais fait l’objet d’une étude de synthèse. D’abord, inspiré par de publications semblables, ces projectiles furent soumis à un inventaire sous forme de catalogue. Au total, deux types de balles de fronde en plomb, onze types de pointes de flèche et un type de saurotère furent identifiés. Finalement, ce nouveau contenu fut assujetti à des analyses comparatives avec d’autres sites archéologiques possédant des données similaires. Les conclusions découlant de ces analogies donnèrent naissance à la première typologie des armes de jet argilienne. Certes, les analyses se heurtèrent à certains obstacles, notamment à une compréhension de la quasi-inexistence d'une pointe de flèche typiquement "grecque" et à la confusion systématique quant à la distinction entre un saurotère et une pointe de javelot, voire possiblement un carreau de gastraphétès (une sorte d’arbalète imposante utilisée lors de sièges durant le 4e siècle av. J.-C.). En partie, ceci découle de l'historique d'échanges entre la Grèce et les autres peuples méditerranéens, balkaniques et orientaux. En outre, de nombreuses réformes militaires des périodes archaïque et classique provoquèrent une évolution constante sur les aspects stratégiques et les tactiques militaires. Considérant ces facteurs parmi tant d'autres et le fait qu'Argilos ait été une fondation grecque en territoire thraco-macédonien, la possibilité d'influence "étrangère" devient alors prépondérante sur la typologie des projectiles argiliens publiée dans le présent mémoire. Avec beaucoup d’espoir, nous croyons sans équivoque que ce travail de recherche contribuera grandement non seulement à l’histoire d’Argilos, mais aussi à l’étude des projectiles en Grèce du nord.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous savons déjà que “mon” discours me révèle sujet d’un désir inconscient, et même si c’est pour nous une platitude elle demeure vraie. La lettre, ce pourrait être ce qui pointe le “sujet” – inconscient comme chacun sait depuis Freud – à condition que l’on sache la lire, je veux dire l’analyser. L’analyser, car cette lettre n’a pas qu’un sens. Bref, ce serait la pointe d’aboutissement de la métaphore, que la psychanalyse aujourd’hui sait interpréter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le marché de l'énergie distribuée est actuellement en pleine expansion et favorise l'intégration d'une multitude de sources d'énergie, et les machines à combustion interne ne sont pas exclues. Les moteurs à piston sont actuellement les principaux acteurs du marché, en raison de leur rendement élevé et de leur faible coût en capital. Cependant, la réglementation de plus en plus sévère sur les émissions ainsi que les coûts liés à la maintenance et les temps d'arrêt sont prohibitifs pour ce type de machines, en particulier dans le segment de basse puissance et de production d’énergie et de chaleur combinées (CHP). C'est là que les microturbines opérant sous le cycle récupéré – de petites turbines à gaz qui produisent moins de 1 MW de puissance – ont un avantage concurrentiel, grâce à moins de pièces en mouvement, une combustion plus propre et une température élevée d'échappement. Les petites turbomachines récupérées doivent atteindre des températures d'entrée de turbine (TIT) très élevées, requises pour atteindre 40% de rendement thermique. Les céramiques non refroidies offrent une solution très attrayante, avec plusieurs essais mais des résultats peu concluants dans la littérature. Ce travail présente une nouvelle architecture qui prend en charge des pales en céramique monolithique dans un environnement d’opération à chaud. La turbine renversée en céramique (ICT) est constituée d'un moyeu métallique flexible qui fournit une base souple pour les pales individuelles en céramique qui sont supportées par l'extérieur par un anneau en composite carbone-polymère. Les forces centrifuges chargent les pales en compression au lieu d’en tension, exploitant ainsi la résistance en compression typiquement élevée des céramiques techniques. Le document présente la validation expérimentale entreprise pour vérifier l'intégrité structurelle d’un prototype de configuration ICT à petite échelle, dans des conditions de fonctionnement à froid et à chaud, ainsi que les étapes qui y ont mené. Les résultats expérimentaux montrent que l'ICT supporte des pales en alumine dans les tests à froid et le nitrure de silicium pour des températures d'entrée du rotor jusqu'à 1000 K, avec des vitesses de pointe de pale atteignant 271 m/s. L’incursion d’objet domestique, l'événement le plus désastreux à se produire dans les turbines en céramique dans la littérature, n'a pas causé de dommages aux pales dans cette configuration. Ces résultats indiquent que l'architecture ICT est robuste et viable, et que le développement peut être poursuivi pour augmenter la TIT et la vitesse de pointe de la turbine, afin d’éventuellement parvenir à une microturbine récupérée en céramique de 1600 K de TIT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche avait pour objectif de tracer le portrait des habiletés graphomotrices d’élèves de deuxième année du primaire fréquentant le milieu scolaire francophone québécois. Elle visait aussi à comparer l’évolution au cours de la deuxième année du primaire des habiletés graphomotrices, orthographiques et rédactionnelles des participants selon le style d’écriture appris et mobilisé (script ou cursif) et en fonction de différents niveaux graphomoteurs (fort et faible). Globalement, les résultats suggèrent que les élèves québécois de deuxième année, qu’ils écrivent en script ou en cursif depuis le début de leur scolarisation, ont une fluidité graphomotrice qui est comparable et qui se traduit par la production en moyenne d’environ 14 lettres lisibles par minute en début d’année et de 20 en fin d’année. Tant en script qu’en cursif, la vitesse d’écriture des élèves de deuxième année évolue positivement en cours d’année, mais ceux qui écrivent en script manifestent une progression de vitesse plus marquée. En revanche, concernant la lisibilité des lettres, les élèves qui écrivent en script atteignent un plateau en début d’année, alors qu’une amélioration s’observe entre le début et la fin de la deuxième année chez les élèves qui écrivent en cursif. La comparaison des performances et de l’évolution des habiletés orthographiques et rédactionnelles des élèves de deuxième année pointe des écarts importants pour les variables d’orthographe en copie différée, de longueur et de contenu des textes selon que les élèves présentent une bonne ou une faible fluidité graphomotrice, indépendamment du style d’écriture mobilisé (script ou cursif). Finalement, du point de vue de l’évolution des habiletés orthographiques et rédactionnelles, l'étude n’a pas permis d’identifier un avantage pour l’un ou l’autre des styles d’écriture, et ce, tant chez les élèves forts sur le plan graphomoteur que chez les élèves plus faibles.