392 resultados para Balayage linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au sprint 100 mètres et dans de nombreux sport de puissance, la phase d’accélération est un déterminant majeure de la performance. Toutefois, les asymétries cinétiques et cinématiques peuvent avoir une incidence sur la performance. L’objectif de cette étude était d’identifier la présence d’interaction entre différentes variables cinétiques et cinématiques angulaires aux membres inférieures (MI) d’un sprint de haute intensité sur un ergomètre non-motorisé avec résistance (NMR). Suite à une rencontre de familiarisation, 11 sujets ont exécuté des sprints de 40 verges. Les données cinétiques ont été obtenues par l’entremise de plateformes de force intégrées aux appuis de l’ergomètre NMR à 10 Hz et les données cinématiques ont été amassées à l’aide du système Optitrack et du logiciel Motive Tracker à 120Hz. Nous avons effectué un test de corrélation linéaire (Corrélation linéaire de Pearson) pour déterminer la relation entre les données cinétiques et cinématiques (p < 0,05). L’analyse des données a révélée (1) une corrélation positive entre la moyenne d’amplitude articulaire à la cheville et la moyenne des pics de puissance développés (W/kg) lors de la phase de maintien (r = 0,62), (2) une corrélation négative entre l’extension maximale moyenne (calculé à partir de l’angle de flexion le plus petit) à la hanche et la moyenne de pics de puissance développées en fin de poussée lors de la totalité et de la phase de maintien (r = -0,63 et r = -0,69 respectivement), et finalement (3) une corrélation négative entre la différence de dorsiflexion maximale à la cheville et la différence des pics de puissance développés aux MI lors du contact du pied au sol en phase de maintien ( r = -0,62). Les résultats obtenus dans cette étude permettront d’améliorer l’intervention des préparateurs physiques et la pratique des athlètes de sport de puissance en plus d’aider au développant de nouvelles technologies et outils d’entrainement complémentaire au sprint et particulièrement à la phase d’accélération.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire explore les productions et les articulations des appartenances au mouvement Slow Fashion sur Twitter. En réaction au modèle actuel prédominant du Fast Fashion, basé sur une surproduction et une surconsommation des vêtements, le Slow Fashion sensibilise les différents acteurs du secteur de la mode à avoir une vision plus consciente des impacts de leurs pratiques sur les travailleurs, les communautés et les écosystèmes (Fletcher, 2007) et propose une décélération des cycles de production et de consommation des vêtements. L’enjeu de cette recherche est de montrer que le Slow Fashion se dessine notamment à travers les relations entres les différents acteurs sur Twitter et que l'ensemble de ces interactions prend la forme d'un rhizome, c’est-à-dire d’un système dans lequel les éléments qui le composent ne suivent aucune arborescence, aucune hiérarchie et n’émanent pas d’un seul point d’origine. (Deleuze & Guattari, 1976) Sur Twitter, les appartenances au Slow Fashion font surface, se connectent les unes aux autres par des liens de nature différente. Consommateurs, designers, entreprises, journalistes, etc., ces parties prenantes construisent collectivement le Slow Fashion comme mouvement alternatif à la mode mainstream actuelle. Mon cadre théorique s’est construit grâce à une analyse de la littérature des concepts de mode, d’identité et d’appartenance afin de mieux appréhender le contexte dans lequel le mouvement a émergé. Puis, j’ai également réalisé une étude exploratoire netnographique sur Twitter au cours de laquelle j’ai observé, tout en y participant, les interactions sur la plateforme abordant le Slow Fashion et/ou la mode éthique. Publiée sur ce blogue (http://belongingtoslowfashion.blogspot.ca), cette « creative presentation of research » (Chapman & Sawchuk, 2012) ne constitue pas une histoire présentant les prétendues origines de ce mouvement mais plutôt une photographie partielle à un certain moment du Slow Fashion. Construite tel un rhizome, elle n’a ni début, ni fin, ni hiérarchie. J’invite alors les lectrices/lecteurs à choisir n’importe quelle entrée et à délaisser toute logique linéaire et déductive. Cette exploration sera guidée par des liens hypertextes ou des annotations qui tisseront des connexions avec d’autres parties ou feront émerger d’autres questionnements. Il s’agit d’offrir une introduction aux enjeux que pose le Slow Fashion, d’ouvrir la voie à d’autres recherches et d’autres réflexions, ou encore de sensibiliser sur ce sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numérifrag, la première partie de ce mémoire, se présente en tant que code source d’un projet de poésie numérique où les balises html ont été trafiquées de manière esthétique. L’effet répétitif et parasitant du code oblige le lecteur à effectuer un travail de décryptage afin de rendre aux poèmes leur lisibilité. Si le texte est linéaire sur papier, la programmation de chaque poème en tant que page web incite le lecteur à naviguer dans l’œuvre et à actualiser son potentiel d’a-linéarité. La seconde partie de ce mémoire, Corps discursif et dispositif dans Le centre blanc de Nicole Brossard, s’intéresse à la notion de dispositif en tant que subversion, dans le recueil Le centre blanc (1970) de Nicole Brossard. L’élaboration de ce dispositif passe par le corps qui s’exprime au-travers du texte et trouve son souffle chez le lecteur, par l’acte d'interprétation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les stérosomes, des vésicules artificielles composées d’amphiphiles monoalkylés et d’un grand pourcentage de stérols, sont prometteurs dans plusieurs domaines comme les industries pharmaceutiques et alimentaires. Il existe des stérosomes chargés négativement, positivement et neutres. Dans ce mémoire, nous avons approfondi nos connaissances sur les propriétés physico-chimiques des stérosomes chargés : acide palmitique (PA)/stérol et stéarylamine (SA)/cholestérol (Chol). Premièrement, afin de mesurer la diffusion latérale de PA dans les membranes PA/stérol (30/70 mol/mol) par RMN à gradients pulsés, nous avons tenté de former des bicouches liquide-ordonnées (lo) orientées magnétiquement avec ce mélange. En s'inspirant de l’idée que l’ajout de 1,2-dihexanoyl-sn-glycéro-3-phosphocholine (DHPC), un lipide à courtes chaînes, dans le système 1,2-dimyristoyl-sn-glycéro-3-phosphocholine (DMPC) mène à la formation de bicouches orientées, nous avons étudié la formulation PA perdeutéré/acide hexanoïque (HA)/Chol avec une proportion molaire de 25/18/57 à plusieurs températures; aucune formation de bicouches orientées n’a été observée. Ce résultat pourrait être expliqué par la solubilisation partielle de HA en milieu aqueux. Alors, une quantité insuffisante serait insérée dans la bicouche pour induire son orientation. La formulation PA perdeutéré/DHPC/Chol n’a pas conduit, elle non plus, à des bicouches orientées magnétiquement à des températures et concentrations lipidiques variées. En étudiant le mélange DMPC/DHPC/Chol (67/17/14), nous avons remarqué que la présence de Chol inhibait l'orientation magnétique des bicouches. Tandis que le mélange DMPC/DHPC/stigmastérol (SS) avec les proportions molaires 67/19/14 et 72/21/7 conduisait à des bicouches orientées avec leur normale (n) perpendiculaire au champ magnétique à 40 °C et 50 °C. Ces résultats suggèrent que le mélange PA/SS avec une proportion de lipide à courtes chaînes, HA et DHPC, pourrait mener à des bicouches orientées magnétiquement. Le mélange PA/Chol avec un lipide à courtes chaînes pourrait aussi être étudié en présence des lanthanides. Deuxièmement, nous avons examiné la possibilité de moduler la libération de matériel encapsulé dans des liposomes essentiellement composés de PA et d’un stérol. Il est connu que le mélange PA/Chol (30/70) à pH ≥ 7,5 forme des liposomes très peu perméables. Il est avantageux de pouvoir moduler la perméabilité pour avoir un contrôle sur le temps de libération de leur contenu, qui est un paramètre de grande importance pour les formulations liposomales de médicaments. D’abord, il a été montré que l’acide oléique (OA)/Chol (30/70) est capable de former des vésicules, ce qui n’avait jamais été prouvé auparavant. Par contre, les bicouches OA/Chol (30/70) ne sont pas plus perméables que les bicouches PA/Chol (30/70). L’ajout de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphatidylcholine (POPC) dans le mélange PA/Chol n’augmente pas plus la perméabilité. En effet, les cinétiques de relargage de calcéine des vésicules PA/POPC/Chol (15/27.5/57.5), POPC/Chol (40/60) et POPC étaient très semblables à celle de PA/Chol (30/70). Il a été remarqué que les études littéraires se contredisent à propos de la perméabilité à la calcéine des bicouches de phosphatidylcholine (PC). L’explication de ces divergences est inconnue pour le moment. En remplaçant la moitié de la proportion molaire de Chol par le cholate de sodium (SC) dans le mélange PA/Chol (30/70), la membrane n’était pas plus apte à libérer son contenu. Il se pourrait que le SC se retrouvant dans la bicouche n’induit pas une diminution d’empilement. Il est aussi possible que le SC ne s'insère pas dans la membrane à cause de son hydrophilie considérable et il pourrait alors former seul des micelles. En remplaçant complètement le Chol par le sulfate de cholestérol (SChol), un stérol chargé négativement, et en préparant les vésicules à un bas pH, la formulation PA/SChol (30/70) mène à une très grande perméabilité à pH 7.5; le relargage est provoqué par un saut de pH. Nos travaux suggèrent qu'il serait possible de moduler la perméabilité des liposomes en les préparant avec le mélange PA/SChol/Chol en variant les proportions entre 30/63/7 à 30/70/0. Le diagramme pH-composition du mélange PA/SChol/Chol indique que ces proportions conduisent, à pH 7.4, à la coexistence de phases solide et lo en différentes proportions, ce qui pourrait moduler la perméabilité membranaire. Troisièmement, les résultats de perméabilité obtenus avec la calcéine et les difficultés survenues lors de l’extrusion des vésicules encapsulant cette sonde nous ont amené à nous demander si la calcéine interagit avec les bicouches chargées. L’impact de certains anions, dont la calcéine, a été examiné sur les bicouches chargées positivement SA/Chol (50/50). La calorimétrie différentielle à balayage (DSC, de l’anglais differential scanning calorimetry), indique qu’il n’y a aucune transition entre 25 et 90 °C pour les liposomes SA/Chol (50/50) à pH = 7.4. L’ajout de chlorure de sodim (375 mM) n’a pas mené à la formation d’agrégats et aucune transition n’a été observée sur le thermogramme. La formation d’agrégats macroscopiques instantanément après l’ajout d’hydrogénophosphate de sodium (125 mM), de sulfate de sodium (125 mM) et de calcéine (3 mM) a été observée. Une transition a été observée sur les thermogrammes en présence de ces sels. Les agrégats observés pourraient être associés à la transition de phase. L’effet des anions sur la température et l’enthalpie de transition suivent le même ordre que la série d’Hofmeister : sulfate > hydrogénophosphate > chlorure (pas de pic). La calcéine avait l’impact le plus prononcé sur l’agrégation; ceci illustre que la calcéine n’est pas une sonde fluorescente inerte avec le mélange SA/Chol. Elle pourrait être un chaotrope volumineux. De plus, les interactions SA-calcéine plus fortes, menant à l’agrégation des vésicules, que les interactions PC-calcéine pourraient s’expliquer par le fait que la SA est chargée positivement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au sprint 100 mètres et dans de nombreux sport de puissance, la phase d’accélération est un déterminant majeure de la performance. Toutefois, les asymétries cinétiques et cinématiques peuvent avoir une incidence sur la performance. L’objectif de cette étude était d’identifier la présence d’interaction entre différentes variables cinétiques et cinématiques angulaires aux membres inférieures (MI) d’un sprint de haute intensité sur un ergomètre non-motorisé avec résistance (NMR). Suite à une rencontre de familiarisation, 11 sujets ont exécuté des sprints de 40 verges. Les données cinétiques ont été obtenues par l’entremise de plateformes de force intégrées aux appuis de l’ergomètre NMR à 10 Hz et les données cinématiques ont été amassées à l’aide du système Optitrack et du logiciel Motive Tracker à 120Hz. Nous avons effectué un test de corrélation linéaire (Corrélation linéaire de Pearson) pour déterminer la relation entre les données cinétiques et cinématiques (p < 0,05). L’analyse des données a révélée (1) une corrélation positive entre la moyenne d’amplitude articulaire à la cheville et la moyenne des pics de puissance développés (W/kg) lors de la phase de maintien (r = 0,62), (2) une corrélation négative entre l’extension maximale moyenne (calculé à partir de l’angle de flexion le plus petit) à la hanche et la moyenne de pics de puissance développées en fin de poussée lors de la totalité et de la phase de maintien (r = -0,63 et r = -0,69 respectivement), et finalement (3) une corrélation négative entre la différence de dorsiflexion maximale à la cheville et la différence des pics de puissance développés aux MI lors du contact du pied au sol en phase de maintien ( r = -0,62). Les résultats obtenus dans cette étude permettront d’améliorer l’intervention des préparateurs physiques et la pratique des athlètes de sport de puissance en plus d’aider au développant de nouvelles technologies et outils d’entrainement complémentaire au sprint et particulièrement à la phase d’accélération.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’article montre que la trajectoire de la réforme de l’inspection en Fédération Wallonie-Bruxelles (FWB) est loin d’être linéaire. Elle est marquée par des processus de reconversion institutionnelle d’institutions existantes, mais aussi de sédimentation et d’hybridation entre l’« ancien » et le « nouveau ». En effet, elle participe à la fois d’une politique de changement institutionnel ambitieuse et de construction du « système scolaire » dans un paysage au départ assez décentralisé et fragmenté ; mais, simultanément, elle est marquée par des « contraintes » institutionnelles existantes, des négociations et transactions entre différents acteurs politiques et scolaires qui déterminent les contours et les compétences du nouveau corps d’inspection en gestation après le décret de 2007 comme les rôles des inspecteurs et leur division du travail avec d’autres acteurs. De plus, dans la mise en œuvre du décret, les orientations normatives, cognitives et professionnelles des acteurs, la permanence de la diversité institutionnelle des réseaux comme la variance structurelle des territoires « modulent » et « tempèrent » l’ambition du changement institutionnel affiché par la politique de la FWB. Cela change mais pas complètement : il y a un processus de conversion partielle et « en tension » de l’institution qu’est l’inspection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie: Modèle de régression quantile de variable instrumentale pour données de Panel utilisant la fonction de production partielle

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie: Simulation; Analyse discriminante linéaire et logistique; Arbres de classification; Réseaux de neurones en base radiale