862 resultados para Algorithme analytique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les éléments de terres rares (REEs) sont de plus en plus utilisés dans une multitude d’applications, notamment la fabrication d’aimants, de batteries rechargeables et les écrans de téléviseurs. Ils sont pour la plupart des métaux trivalents peu solubles dans les eaux naturelles. Comme pour les métaux divalents, le risque écologique des REEs est très probablement étroitement lié à leurs spéciations chimiques. Cependant, le comportement du samarium (Sm) dans les matrices environnementales est très peu connu et il n'existe actuellement aucune technique pour évaluer sa spéciation chimique. Dans cette optique, la technique d'échange d'ions (IET) sur la résine Dowex a été optimisée pour mesurer le samarium libre en solution. Les temps d'équilibre ont d'abord été déterminés pour des solutions tamponnées de samarium (Sm 6,7x10-8 M ; MES 1,0 mM M ; pH 6,0) en présence du nitrate de sodium (de 0,01M à 0,5 M). Pour ces diverses forces ioniques, l’équilibre thermodynamique n’est atteint que pour NaNO3 0,5M. Un autre mode d’utilisation de la résine (mode dynamique) a donc été développé pour tenir compte des conditions environnementales et évaluer efficacement le samarium libre. Les impacts des ligands organiques tels le NTA, l’EDTA, le citrate, l’acide malique et l’acide fulvique Suwannee River Standard I (SRFA) ont été étudiés par l’IET en mode dynamique. Une grande corrélation a été trouvée plus entre les taux d’accumulation de samarium sur la résine d’échange pour différents rapports NTA : Sm, EDTA : Sm, SRFA : Sm et le samarium libre. Par contre, aucune corrélation significative n’a été observée pour les ligands citrate et acide malique compte tenu des complexes qu’ils forment avec le samarium et qui s’adsorbent aussi sur la résine Dowex. Les concentrations Sm3+ mesurées par la technique IET ont été fortement corrélées avec celles prédites par le modèle WHAM 7.0 en utilisant la constante de stabilité obtenue par titration de SRFA par extinction de la fluorescence. Par ailleurs, la formation de colloïdes de samarium en fonction du pH influe grandement sur la détermination du samarium libre et doit être prise en compte dans la spéciation du samarium. L'IET assisté par des techniques auxiliaires comme le dosage par extinction de la fluorescence et le SP-ICPMS pourrait être une technique utile pour évaluer les concentrations de Sm biodisponible dans les eaux naturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les éléments de terres rares (REEs) sont de plus en plus utilisés dans une multitude d’applications, notamment la fabrication d’aimants, de batteries rechargeables et les écrans de téléviseurs. Ils sont pour la plupart des métaux trivalents peu solubles dans les eaux naturelles. Comme pour les métaux divalents, le risque écologique des REEs est très probablement étroitement lié à leurs spéciations chimiques. Cependant, le comportement du samarium (Sm) dans les matrices environnementales est très peu connu et il n'existe actuellement aucune technique pour évaluer sa spéciation chimique. Dans cette optique, la technique d'échange d'ions (IET) sur la résine Dowex a été optimisée pour mesurer le samarium libre en solution. Les temps d'équilibre ont d'abord été déterminés pour des solutions tamponnées de samarium (Sm 6,7x10-8 M ; MES 1,0 mM M ; pH 6,0) en présence du nitrate de sodium (de 0,01M à 0,5 M). Pour ces diverses forces ioniques, l’équilibre thermodynamique n’est atteint que pour NaNO3 0,5M. Un autre mode d’utilisation de la résine (mode dynamique) a donc été développé pour tenir compte des conditions environnementales et évaluer efficacement le samarium libre. Les impacts des ligands organiques tels le NTA, l’EDTA, le citrate, l’acide malique et l’acide fulvique Suwannee River Standard I (SRFA) ont été étudiés par l’IET en mode dynamique. Une grande corrélation a été trouvée plus entre les taux d’accumulation de samarium sur la résine d’échange pour différents rapports NTA : Sm, EDTA : Sm, SRFA : Sm et le samarium libre. Par contre, aucune corrélation significative n’a été observée pour les ligands citrate et acide malique compte tenu des complexes qu’ils forment avec le samarium et qui s’adsorbent aussi sur la résine Dowex. Les concentrations Sm3+ mesurées par la technique IET ont été fortement corrélées avec celles prédites par le modèle WHAM 7.0 en utilisant la constante de stabilité obtenue par titration de SRFA par extinction de la fluorescence. Par ailleurs, la formation de colloïdes de samarium en fonction du pH influe grandement sur la détermination du samarium libre et doit être prise en compte dans la spéciation du samarium. L'IET assisté par des techniques auxiliaires comme le dosage par extinction de la fluorescence et le SP-ICPMS pourrait être une technique utile pour évaluer les concentrations de Sm biodisponible dans les eaux naturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.