989 resultados para Échelle numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les sulfilimines et les sulfoximines sont des motifs structuraux dont l’intérêt synthétique est grandissant, notamment du fait de leurs applications en chimie médicinale et en agrochimie. Les travaux rapportés dans cet ouvrage décrivent le développement de nouvelles méthodes de synthèse efficaces pour la production de ces unités atypiques. Ces méthodes sont basées sur la réactivité d’une source d’azote électrophile, vis-à-vis de thioéthers et de sulfoxydes. L’utilisation d’un complexe métallique introduit en quantité catalytique a permis de favoriser le processus réactionnel. En tirant bénéfice de l’expertise de notre groupe de recherche sur le développement de réactions d’amination stéréosélectives de liaisons C-H et d’aziridination de styrènes, nous avons d’abord étudié la réactivité des N-mésyloxycarbamates comme source d’azote électrophile. Après avoir optimisé sa synthèse sur grande échelle, ce réactif chiral a été utilisé dans des réactions d’amination de thioéthers et de sulfoxydes, catalysées par un dimère de rhodium (II) chiral. Un processus diastéréosélectif efficace a été mis au point, permettant de produire des sulfilimines et des sulfoximines chirales avec d’excellents rendements et sélectivités. Au cours de l’optimisation de cette méthode de synthèse, nous avons pu constater l’effet déterminant de certains additifs sur la réactivité et la sélectivité de la réaction. Une étude mécanistique a été entreprise afin de comprendre leur mode d’action. Il a été observé qu’une base de Lewis telle que le 4-diméthylaminopyridine (DMAP) pouvait se coordiner au dimère de rhodium(II) et modifier ses propriétés structurales et redox. Les résultats que nous avons obtenus suggèrent que l’espèce catalytique active est un dimère de rhodium de valence mixte Rh(II)/Rh(III). Nous avons également découvert que l’incorporation de sels de bispyridinium avait une influence cruciale sur la diastéréosélectivité de la réaction. D’autres expériences sur la nature du groupe partant du réactif N-sulfonyloxycarbamate nous ont permis de postuler qu’une espèce nitrénoïde de rhodium était l’intermédiaire clé du processus d’amination. De plus, l’exploitation des techniques de chimie en débit continu nous a permis de développer une méthode d’amination de thioéthers et de sulfoxydes très performante, en utilisant les azotures comme source d’azote électrophile. Basée sur la décompositon photochimique d’azotures en présence d’un complexe de fer (III) simple et commercialement disponible, nous avons été en mesure de produire des sulfilimines et des sulfoximines avec d’excellents rendements. Le temps de résidence du procédé d’amination a pu être sensiblement réduit par la conception d’un nouveau type de réacteur photochimique capillaire. Ces améliorations techniques ont permis de rendre la synthèse plus productive, ce qui constitue un élément important d’un point de vue industriel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les technologies numériques changent-elles vraiment la littérature? Peut-on parler d'une littérature numérique? Y a-t-il opposition entre la littérature papier et la littérature numérique? D'une part, on pourrait dire qu'il n'existe aucune opposition entre ces deux formes de littérature car, dans les faits, il n'y a que des pratiques qui s'inscrivent toujours dans une continuité. D'autre part, on pourrait affirmer qu'au contraire il y a des différences fondamentales dans les pratiques d'écritures, dans les modèles de diffusion et de réception, dans les formats, dans les supports, etc. Cet article explore ces deux perspectives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet essai s’oriente sur la conception d’un dispositif numérique d’apprentissage (DNA) agissant comme outil pédagogique complémentaire à ce qui est déjà vu en classe et en laboratoire de science en quatrième secondaire lorsque les enseignantes et les enseignants abordent les concepts vus en électricité. Il vise à améliorer les apprentissages faits en matière d’électricité des élèves en science de quatrième secondaire à l’école du Coteau à Mascouche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette étude, nous nous sommes intéressé à l’utilisation des TIC, plus précisément du Tableau Numérique Interactif (TNI), en géométrie, par des groupes d’élèves de deux classes du primaire en pédagogie Freinet. S’inspirant d’une revue de littérature concernant la pédagogie dialogique, qui se rapproche de la pédagogie Freinet, trois unités d’observation, qui se rapportent aux trois types de discussion (cumulatif, disputationnel et exploratoire) au sein des groupes, ont été analysées. Le but de l’étude est de comprendre en quoi les discussions des groupes d’élèves autour du TNI, dans un contexte dit dialogique, peuvent être exploratoires (un type de discussion qui favoriserait les apprentissages). Pour cela, une activité d’apprentissage, appelée situation-problème, impliquant six groupes d’élèves autour du TNI, a été créée en collaboration avec les enseignants en géométrie. Nos résultats indiquent, entres autres, que les aspects pédagogiques de la technologie en question, ici le TNI, sont à différencier des aspects pédagogiques du logiciel utilisé, ici Tinkercad en mathématiques. Ce mémoire remet en relief toute la complexité de prendre en compte un unique facteur (l’analyse des discussions) pour discuter des apprentissages des élèves autour du TNI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif principal de cette recherche est de déterminer si le transfert des apprentissages est facilité par l'utilisation d'un tel portfolio, à titre de mesure de soutien à l'apprentissage, puisqu'une problématique a été identifiée chez la population étudiante en Techniques juridiques au Collège Ahuntsic, en ce que la désorganisation des apprentissages et la difficulté à faire des liens entre les cours sont observables. Nous avons donc imaginé une solution possible à cet écueil (développement et utilisation d’un portfolio d’apprentissage numérique) afin d’en déterminer le potentiel comme outil intégrateur pouvant faciliter le développement de compétences, par le support qu’il offre pour réactiver les connaissances antérieures, mobiliser et combiner les ressources, actions qui permettent le transfert des apprentissages.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente un modèle mathématique et numérique pour analyser le comportement d’une unité de stockage thermique à changement de phase solide-liquide représentée par un tube autour duquel se trouve le matériau à changement de phase. Le système est soumis à une charge oscillant entre le chauffage et le refroidissement. Une analyse d’ordre de grandeur permet de prédire le comportement du système en fonction des principaux nombres adimensionnels. Un paramètre adimensionnel est proposé pour délimiter les concepts dans lesquels la conduction domine par rapport à ceux où la convection naturelle domine. L’étude dévoile l’impact des paramètres de conception de l’unité de stockage thermique sur son fonctionnement et approfondit les connaissances dans le domaine du changement de phase avec convection naturelle. Différents indicateurs ont été développés pour analyser la performance du système, tels que les dimensions de la zone affectée thermiquement, le volume fondu ou solidifié et une analyse fréquentielle. Des corrélations sont proposées pour déterminer facilement le comportement du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Deux études récentes ont décrit l'industrie du transport écolier du Québec comme une industrie composée d'une multitude de petites et moyennes entreprises de type familial. L'étude gouvernementale établit, entre autres, que 75 % des entreprises de cette industrie possèdent une flotte de moins de 10 véhicules. Ce constat nous a amené à nous questionner sur le type de technologie utilisée par les entreprises de cette industrie et, en particulier, sur l'existence de rendement d'échelle. Nous savons, qu’à priori, une industrie composée de plusieurs PME peut être caractérisée par des rendements d'échelle constants. D'autre part, le profil économique, tracé par les deux études mentionnées ci-dessus, nous démontre qu'il existe au sein de cette activité économique des entreprises de très grande taille comparativement à la majorité. Il nous est donc apparu intéressant de comparer la technologie de ces grandes entreprises au reste de l'industrie et de vérifier si celles-ci bénéficiaient des mêmes rendements d'échelle. La disponibilité des données nous a permis d'élargir notre recherche et d'évaluer les distinctions technologiques qui caractérisent les entreprises syndiquées et non syndiquées. L'objectif principal de cette recherche consiste à analyser la technologie utilisée par les entreprises de l'industrie du transport écolier du Québec et à évaluer les niveaux respectifs de rendements d'échelle qui les caractérisent. Nous nous appuierons, pour atteindre notre objectif, sur une méthodologie reconnue et très largement utilisée dans l'étude de la technologie des entreprises: le théorème de la dualité et l'étude des formes fonctionnelles flexibles. Le premier chapitre décrira brièvement le théorème de la dualité et présentera différentes formes fonctionnelles de la fonction de coût. La deuxième partie de ce chapitre sera consacrée à la forme fonctionnelle retenue, soit la Translog. Le manque de données disponibles, concernant les coûts d'opération de l'industrie du transport écolier du Québec, nous a obligé à concevoir et à élaborer une banque de données représentative du transport écolier au Québec. La création de cette source d'informations a exigé plus de 50 % des heures de travail allouées à cette étude. Nous présenterons dans notre deuxième chapitre l'approche d'échantillonnage utilisée ainsi que la définition de chacune des variables de notre fonction de coût. Enfin, notre dernier chapitre présentera les résultats observés et les comparera avec ceux obtenus par d'autres chercheurs. Nous terminerons notre recherche par une synthèse de nos résultats.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise.  Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche de nature qualitative avait pour objectif général de faire avancer les enseignantes et les enseignants du programme Graphisme du Cégep de Rivière-du-Loup dans l’adoption d’une terminologie commune qui serait de nature à créer une meilleure cohésion dans le programme. La problématique a permis de constater que l’utilisation de certains termes donnant lieu à plusieurs interprétations trouble la communication entre enseignants et apprenants. L’arrivée d’un nouveau programme en Graphisme permet au personnel enseignant de travailler au développement d’une compréhension commune du vocabulaire utilisé en Graphisme. Le cadre de référence en didactique, développée par le secteur PERFORMA de l’Université de Sherbrooke, a orienté cette recherche scientifique. Cette base de connaissances adaptée à l’enseignement collégial a permis d’encadrer cet essai et de trouver une solution au problème rencontré. Les fondements de cette recherche s’appuient donc sur une démarche de nature didactique qui offre des solutions documentées pour définir et présenter ces termes sans équivoque. L’utilisation du wiki pour l’élaboration du lexique numérique, apporte une solution collaborative pour documenter les termes posant problème afin de coconstruire une représentation commune chez le personnel enseignant du programme Graphisme au Cégep de Rivière-du-L

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La circulation extracorporelle (CEC) est une technique utilisée en chirurgie cardiaque effectuée des milliers de fois chaque jour à travers le monde. L’instabilité hémodynamique associée au sevrage de la CEC difficile constitue la principale cause de mortalité en chirurgie cardiaque et l’hypertension pulmonaire (HP) a été identifiée comme un des facteurs de risque les plus importants. Récemment, une hypothèse a été émise suggérant que l'administration prophylactique (avant la CEC) de la milrinone par inhalation puisse avoir un effet préventif et faciliter le sevrage de la CEC chez les patients atteints d’HP. Toutefois, cette indication et voie d'administration pour la milrinone n'ont pas encore été approuvées par les organismes réglementaires. Jusqu'à présent, la recherche clinique sur la milrinone inhalée s’est principalement concentrée sur l’efficacité hémodynamique et l'innocuité chez les patients cardiaques, bien qu’aucun biomarqueur n’ait encore été établi. La dose la plus appropriée pour l’administration par nébulisation n'a pas été déterminée, de même que la caractérisation des profils pharmacocinétiques (PK) et pharmacodynamiques (PD) suite à l'inhalation. L'objectif de notre recherche consistait à caractériser la relation exposition-réponse de la milrinone inhalée administrée chez les patients subissant une chirurgie cardiaque sous CEC. Une méthode analytique par chromatographie liquide à haute performance couplée à un détecteur ultraviolet (HPLC-UV) a été optimisée et validée pour le dosage de la milrinone plasmatique suite à l’inhalation et s’est avérée sensible et précise. La limite de quantification (LLOQ) était de 1.25 ng/ml avec des valeurs de précision intra- et inter-dosage moyennes (CV%) <8%. Des patients souffrant d’HP pour lesquels une chirurgie cardiaque sous CEC était prévue ont d’abord été recrutés pour une étude pilote (n=12) et, par la suite, pour une étude à plus grande échelle (n=28) où la milrinone (5 mg) était administrée par inhalation pré-CEC. Dans l'étude pilote, nous avons comparé l'exposition systémique de la milrinone peu après son administration avec un nébuliseur pneumatique ou un nébuliseur à tamis vibrant. L’efficacité des nébuliseurs en termes de dose émise et dose inhalée a également été déterminée in vitro. Dans l'étude à plus grande échelle conduite en utilisant exclusivement le nébuliseur à tamis vibrant, la dose inhalée in vivo a été estimée et le profil pharmacocinétique de la milrinone inhalée a été pleinement caractérisé aux niveaux plasmatique et urinaire. Le ratio de la pression artérielle moyenne sur la pression artérielle pulmonaire moyenne (PAm/PAPm) a été choisi comme biomarqueur PD. La relation exposition-réponse de la milrinone a été caractérisée pendant la période d'inhalation en étudiant la relation entre l'aire sous la courbe de l’effet (ASCE) et l’aire sous la courbe des concentrations plasmatiques (ASC) de chacun des patients. Enfin, le ratio PAm/PAPm a été exploré comme un prédicteur potentiel de sortie de CEC difficile dans un modèle de régression logistique. Les expériences in vitro ont démontré que les doses émises étaient similaires pour les nébuliseurs pneumatique (64%) et à tamis vibrant (68%). Cependant, la dose inhalée était 2-3 fois supérieure (46% vs 17%) avec le nébuliseur à tamis vibrant, et ce, en accord avec les concentrations plasmatiques. Chez les patients, en raison des variations au niveau des facteurs liés au circuit et au ventilateur causant une plus grande dose expirée, la dose inhalée a été estimée inférieure (30%) et cela a été confirmé après récupération de la dose de milrinone dans l'urine 24 h (26%). Les concentrations plasmatiques maximales (Cmax: 41-189 ng/ml) et l'ampleur de la réponse maximale ΔRmax-R0 (0-65%) ont été observées à la fin de l'inhalation (10-30 min). Les données obtenues suite aux analyses PK sont en accord avec les données publiées pour la milrinone intraveineuse. Après la période d'inhalation, les ASCE individuelles étaient directement reliées aux ASC (P=0.045). Enfin, notre biomarqueur PD ainsi que la durée de CEC ont été identifiés comme des prédicteurs significatifs de la sortie de CEC difficile. La comparaison des ASC et ASCE correspondantes a fourni des données préliminaires supportant une preuve de concept pour l'utilisation du ratio PAm/PAPm comme biomarqueur PD prometteur et justifie de futures études PK/PD. Nous avons pu démontrer que la variation du ratio PAm/PAPm en réponse à la milrinone inhalée contribue à la prévention de la sortie de CEC difficile.