999 resultados para Carboxyméthylamidon sodique à haute teneur en amylose


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les graines de lin sont des oléagineux largement cultivés au Canada. Cependant, les résidus générés suite au processus d’extraction de l’huile contiennent une importante quantité de protéines et peuvent être valorisées dans l’alimentation humaine en raison, principalement, de certaines fractions peptidiques possédant des propriétés bioactives. Dans le cadre de ce travail, l’influence des hautes pressions hydrostatiques (HPH) sur un isolat de protéines de lin a été étudiée concernant les modifications de la structure protéique, l’hydrolyse enzymatique ainsi que l’activité antioxydante des hydrolysats. Ainsi, des solutions protéiques de lin (1% m/v) ont été soumises à un traitement de HPH à 600 MPa pendant 5 et 20 minutes, à 20°C et comparés à des échantillons non-pressurisés. Deux traitements subséquents d’hydrolyse ont été effectués suite au traitement ou non de pressurisation : une première hydrolyse trypsique suivie d’une deuxième par la pronase. Dans un premier temps, la caractérisation de l’isolat protéique de lin pressurisé et non pressurisé a été réalisée par spectrofluorimétrie et par une analyse de la taille des particules afin d’étudier l’effet de la pressurisation sur les HPH la matrice protéique végétale. Par la suite, les hydrolysats protéiques ont été caractérisés par HPLC-MS et leur capacité antioxydante a été déterminée par ORAC. Les résultats ont démontré que le niveau de pressurisation et la durée du traitement ont un impact sur la structure protéique en induisant la dissociation des protéines, et la formation d’agrégats. Ceux-ci seraient occasionnés par la décompression ou créés durant l’entreposage des isolats. Suite à l’hydrolyse enzymatique des solutions protéiques pressurisées ou non par la trypsine seule et par la trypsine-pronase, les analyses chromatographiques ont révélé que la concentration de certains peptides a été modifiée lorsque la trypsine seule était utilisée après un traitement à HPH. Enfin, les HPH ont amélioré la capacité antioxydante des hydrolysats obtenus lors de l’hydrolyse trypsine-pronase comparativement au contrôle non-pressurisé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

New high-resolution seismic data complemented with bedrock samples allowed us to propose a revised geological map of the Bay of Seine and to better define the control by the geological substrate on the morphogenesis and evolution of the Seine River during Pleistocene times. The new data confirm previous works. The Bay of Seine can be divided into two geological parts: a Mesozoic monocline domain occupying most of the bay and a syncline domain, mostly Tertiary, in the north, at the transition with the Central English Channel area. The highlighting of Eocene synsedimentary deformations, marked by sliding blocks in the syncline domain, is one of the most original inputs of this new study in the Bay of Seine that underlines the significant role of the substrate on the formation of the Seine paleo-valley. In the monocline domain, three terraces, pre-Saalian, Saalian and Weischelian in age respectively, constitute the infill of the paleovalley, preferentially incised into the middle to upper Jurassic marl-dominated formations, and bounded to the north by the seaward extension of the Oxfordian cuesta. The three terraces are preserved only along the northern bank of the paleovalley, evidencing a NE-to-SW migration of the successive valleys during the Pleistocene. We assume this displacement results from the tectonic tilt of the Paris Basin western margin. In the North, the paleo-Seine is incised into the axis of the tertiary syncline, and comprises three fill terraces that are assumed to have similar ages than those of the terraces. The fill terrace pattern is associated to the subsiding character of this northern domain of the Bay of Seine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si j'ai choisi comme sujet d'étude "Comment les services sociaux sont appliqués dans le système policier", c'est qu'à plusieurs niveaux cette institution sociale, "la police", constitue un champ privilégié d'étude pour les spécialistes des sciences sociales comme pour ceux de l'administration publique. En effet, parmi les organisations sociales ayant des buts et intérêts précis, dans des rôles spécifiques, la police est de celles qui ont été étudiées tardivement et ce, d'une manière moins approfondie que d'autres organisations comme par exemple, le scolaire, le judiciaire, et aussi le sanitaire. Cet état de choses réside dans de multiples raisons, mais l'une des plus importantes est probablement le peu de priorité accordée dans l'échelle des préoccupations sociales aux problèmes liés au fonctionnement de la police. Il est certain qu'à côté d'un intérêt purement théorique et académique, j'ai également une préoccupation pratique, car, ayant servi plus de huit ans dans les forces policières, il n'y a aucun doute que je fais passer la police dans un ordre de haute priorité dans mes préoccupations de travailleur social, comme dans celles du grand public. Je suis convaincu que les agents de contrôle social, en particulier la police et les services sociaux, exercent par leur diplomatie et par leur jugement, un pouvoir discrétionnaire indispensable qui permet d'aérer un appareil juridique surchargé. Ils deviennent, par le fait même, les pivots d'un appareil de protection sociale. C'est pourquoi, avec une prise de conscience de la police et des services sociaux face aux problèmes qui sont liés au rôle de chacun d'eux, ainsi qu'à l'exercice de leurs fonctions, on pourra peut-être rendre conscients les promoteurs de l'ordre social des valeurs qui sont en cause dans l'action policière. Il serait souhaitable qu'une évolution redéfinisse le rôle de la police dans une société démocratique, afin que de nouvelles solutions puissent apparaître dans l'intérêt du grand public. […]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le réseau ECOSCOPA, co-financé par la DPMA, a pour objectif de développer un outil permettant de mesurer, à plusieurs échelles, des paramètres environnementaux et biologiques en lien avec la croissance et la survie d’huîtres creuses en élevage. Sur l’année 2015 et afin de préparer de façon concertée ce projet, il a été proposé dans un premier temps de renforcer la synergie existante entre les réseaux RESCO et VELYGER afin de disposer d’un suivi proactif du cycle complet de production de l’huître (incluant le captage, la croissance, la reproduction, les éventuelles mortalités) à partir d’animaux communs sur différents sites ateliers, en lien avec l’acquisition de descripteurs environnementaux et physiologiques susceptibles d’influencer chacune de ces traits de vie. En complément du fonctionnement des réseaux VELYGER et RESCO II, le projet ECOSCOPA a donc pris en charge le dispositif de déploiement et de suivi bimensuel d’huîtres sentinelles sur 6 sites (Arcachon, Marennes Oléron, Baie de Bourgneuf, Rade de Brest, Etang de Thau, Rivière de Pénerf). Plus précisément, ECOSCOPA a suivi les paramètres biologiques de survie et de croissance, sur ces six sites ateliers. Les huîtres sentinelles(identiques à celles utilisées par le réseau RESCO II) correspondant à 3 classes d’âge d’huîtres creuses (« 6 mois », « 18 mois » et « 30 mois ») ont été déployées et suivies de manière synchrone sur l’ensemble des sites, selon le même calendrier que celui établie pour RESCO II. Les descripteurs environnementaux ont été obtenus grâce à des enregistrements en haute fréquence de la température, de la pression et de la salinité, réalisés sur l'ensemble des 6 sites au moyen de sondes SMATCH permettant la transmission en temps réel de ces paramètres sur un serveur dédié. La totalité des sites ateliers équipés avec ce type de sondes, en complément des sondes de type STPS prévues par le réseau RESCO II, apermis d'assurer une prise de données sans discontinuité pendant les opérations d'entretien.Les données sur les populations phytoplanctoniques ont été acquises grâce aux points de suivi du réseau REPHY là où ces points existent. Des prélèvements additionnels ont été réalisés dans le cas contraire via des partenaires extérieurs. Enfin, des descripteurs physiologiques ont été acquis dans cette étude afin de qualifier le statut physiologique de l’huître en lien avec les variations de l’environnement. Plus précisément, une étude spécifique permettant d’approfondir les résultats acquis dans le cadre de l’expérimentation PHYSITU en 2014, a été réalisée. En effet, dans cette étude, des mesures d’expression de gènes impliqués dans la réponse des naissains aux mortalités ont été réalisées afin de qualifier l’évolution du statut physiologique de l’huître avant, pendant, et après les mortalités. Cette action a permis, entre autre, d’identifier 4 gènes d’intérêt, dont l’expression varie significativement selon les périodes avant et après mortalité. L’action ECOSCOPA a donc pris en charge la poursuite de cette étude afin de tester l’intérêt de ces marqueurs en tant qu’indicateur précoce de la réponse de l’huître face aux agents pathogènes, et de valider si ces marqueurs pourraient être utilisés à plus large échelle pour la surveillance de la qualité des écosystèmes côtiers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce rapport présente les éléments qui ont conduit à la qualification des données acquises en 2015 par la station de mesure haute fréquence MOLIT (Mer Ouverte Littoral). La bouée MOLIT est déployée depuis 2008 en baie de Vilaine, une des zones de la côte atlantique les plus menacées par l’eutrophisation. Cette bouée instrumentée constitue un des systèmes de mesure du réseau de mesure haute fréquence Ifremer HOSEA (High frequency Observation network for the environment in coastal SEAs). Cette station est équipée d’une sonde multiparamètre qui mesure les paramètres température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont effectuées à deux niveaux (surface et fond) avec une fréquence d’une mesure horaire. Ce rapport synthétise les informations qui ont permis de qualifier les données sur le site des réseaux eulériens d’Ifremer (Coriolis) : contrôles in-situ, historique des opérations de maintenance, constats de vérification des sondes avant et après campagne. Les données ont été qualifiées en quatre états : 1-BON, 2-MOYEN, 3-DOUTEUX, 4-MAUVAIS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This report presents a new extraction method of the dinophysistoxins (DTXs), confirmed by quantification using high-performance liquid chromatography coupled to mass spectrometry with an ion trap and electro spray interface (HPLC/ESI/MS2). The method originality consists on the adaptation of DTXs basic extraction procedure (liquid/ liquid) to a solid phase extraction (SPE) via a robotic station: ASPEC XLi The parameters of the automatization procedure were optimized to obtain the best DTXs recovery rate. These improvements were loaded with digestive gland mussel homogenat realized on a silica cartridge SPE, activated in hexane/chloroform (50:50), washed with hexane/chloroform (50:50) and extracted by an elution gradient (chloroform methanol (65:35) and methanol (100%)). This method was validated according to two normative referentials (linearity, detection quantification limits and accuracy…) : - The Guide of the Pharmacy industry: Analytical Validation, report of the commission SFSTP 1992 (French Corporation of the Sciences and Technical Pharmaceutical), - - The Procedure of validation of an alternative method in compare to a reference method. (AFNOR, 1998. NF V 03-110). Comparison with the classical liquid/liquid extraction and the automated method present clear advantages. In an analytical method the extraction is generally considered to be the most labor-intensive and error-prone step. This new procedure allowed us to increase throughput, to improve the reproducibility and to reduce the error risks due to the individual manual treatments.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire porte sur les recherches et les développements dans le domaine des électrolytes à base de liquide ionique redox. Une nouvelle famille de liquide ionique redox basée sur le ferrocenylsulfonyl(trifluoromethylsulfonyl) (FcNTf) a été développée et étudiée pour la première fois afin de démontrer le potentiel de ces liquides ioniques dans les dispositifs de stockage d’énergie. En premier lieu, les liquides ioniques redox (RILs) composés de l’anion électroactif et du cation d’alkylimidazolium sont synthétisés et caractérisés. L’impact de la variation des chaînes alkyles du cation sur les propriétés physicochimiques et électrochimiques du RIL a été étudié. À une faible concentration en solution, l’impact du cation a peu d’influence sur l’ensemble des propriétés. Cependant, à haute concentration (>50 % massique) et sans électrolyte de support, la formation de films en oxydation a été observée à l'électrode positive. Ce point est intéressant pour les futures recherches et développements dans le domaine, puisque la variation des chaînes alkyles du cation des liquides ioniques redox et la formation de films lors de l’oxydation du FcNTf est peu connue et comprise en littérature. De plus, l’optimisation des conditions de solution d'électrolyte RIL dans les supercapaciteurs est aussi présentée. En deuxième lieu, la mise en application des RILs dans les supercapaciteurs a été testée. La performance énergétique et le mécanisme d’autodécharge ont été ciblés dans cette étude. En présence de l’électrolyte redox, la contribution des réactions faradaiques permet d'accomplir un gain énergique de 287 % versus les systèmes purement capacitifs. À cause de la formation de film à l’électrode, l’électrolyte redox FcNTf joue un rôle primordial dans la prévention de l’autodécharge versus les liquides ioniques qui étaient connus jusqu’à présent. Finalement, ce mémoire a permis de mieux comprendre les effets structure-propriétés relative aux modifications du cation chez les liquides ioniques redox.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire porte sur les recherches et les développements dans le domaine des électrolytes à base de liquide ionique redox. Une nouvelle famille de liquide ionique redox basée sur le ferrocenylsulfonyl(trifluoromethylsulfonyl) (FcNTf) a été développée et étudiée pour la première fois afin de démontrer le potentiel de ces liquides ioniques dans les dispositifs de stockage d’énergie. En premier lieu, les liquides ioniques redox (RILs) composés de l’anion électroactif et du cation d’alkylimidazolium sont synthétisés et caractérisés. L’impact de la variation des chaînes alkyles du cation sur les propriétés physicochimiques et électrochimiques du RIL a été étudié. À une faible concentration en solution, l’impact du cation a peu d’influence sur l’ensemble des propriétés. Cependant, à haute concentration (>50 % massique) et sans électrolyte de support, la formation de films en oxydation a été observée à l'électrode positive. Ce point est intéressant pour les futures recherches et développements dans le domaine, puisque la variation des chaînes alkyles du cation des liquides ioniques redox et la formation de films lors de l’oxydation du FcNTf est peu connue et comprise en littérature. De plus, l’optimisation des conditions de solution d'électrolyte RIL dans les supercapaciteurs est aussi présentée. En deuxième lieu, la mise en application des RILs dans les supercapaciteurs a été testée. La performance énergétique et le mécanisme d’autodécharge ont été ciblés dans cette étude. En présence de l’électrolyte redox, la contribution des réactions faradaiques permet d'accomplir un gain énergique de 287 % versus les systèmes purement capacitifs. À cause de la formation de film à l’électrode, l’électrolyte redox FcNTf joue un rôle primordial dans la prévention de l’autodécharge versus les liquides ioniques qui étaient connus jusqu’à présent. Finalement, ce mémoire a permis de mieux comprendre les effets structure-propriétés relative aux modifications du cation chez les liquides ioniques redox.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.