900 resultados para Simulation informatique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectifs: Les patients hospitalisés aux soins intensifs (SI) sont souvent victimes d’erreurs médicales. La nature interprofessionnelle des équipes de SI les rend vulnérables aux erreurs de communication. L’objectif primaire du projet est d’améliorer la communication dans une équipe interprofessionnelle de soins intensifs par une formation en simulation à haute fidélité. Méthodologie Une étude prospective randomisée contrôlée à double insu a été réalisée. Dix équipes de six professionnels de SI ont complété trois scénarios de simulations de réanimation. Le groupe intervention était débreffé sur des aspects de communication alors que le groupe contrôle était débreffé sur des aspects techniques de réanimation. Trois mois plus tard, les équipes réalisaient une quatrième simulation sans débreffage. Les simulations étaient toutes évaluées pour la qualité, l’efficacité de la communication et le partage des informations critiques par quatre évaluateurs. Résultats Pour l’issue primaire, il n’y a pas eu d’amélioration plus grande de la communication dans le groupe intervention en comparaison avec le groupe contrôle. Une amélioration de 16% de l’efficacité des communications a été notée dans les équipes de soins intensifs indépendamment du groupe étudié. Les infirmiers et les inhalothérapeutes ont amélioré significativement l’efficacité de la communication après trois sessions. L’effet observé ne s’est pas maintenu à trois mois. Conclusion Une formation sur simulateur à haute fidélité couplée à un débreffage peut améliorer à court terme l’efficacité des communications dans une équipe interprofessionnelle de SI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail de thèse porte sur la simulation du déploiement des prothèses vasculaires de type stent-graft (SG) lors de la réparation endovasculaire (EVAR) des anévrismes de l’aorte abdominale (AAA). Cette étude se présente en trois parties: (i) tests mécaniques en flexion et compression de SG couramment utilisés (corps et jambage de marque Cook) ainsi que la simulation numérique desdits tests, (ii) développement d’un modèle numérique d’anévrisme, (iii) stratégie de simulation du déploiement des SG. La méthode numérique employée est celle des éléments finis. Dans un premier temps, une vérification du modèle éléments finis (MEF) des SG est realisée par comparaison des différents cas de charge avec leur pendant expérimental. Ensuite, le MEF vasculaire (AAA) est lui aussi vérifié lors d’une comparaison des niveaux de contraintes maximales principales dans la paroi avec des valeurs de la littérature. Enfin, le déploiement est abordé tout en intégrant les cathéters. Les tests mécaniques menés sur les SG ont été simulés avec une différence maximale de 5,93%, tout en tenant compte de la pré-charge des stents. Le MEF de la structure vasculaire a montré des contraintes maximales principales éloignées de 4,41% par rapport à un modèle similaire précédemment publié. Quant à la simulation du déploiement, un jeu complet de SG a pu être déployé avec un bon contrôle de la position relative et globale, dans un AAA spécifique pré-déformé, sans toutefois inclure de thrombus intra-luminal (TIL). La paroi du AAA a été modélisée avec une loi de comportement isotropique hyperélastique. Étant donné que la différence maximale tolérée en milieu clinique entre réalité et simulation est de 5%, notre approche semble acceptable et pourrait donner suite à de futurs développements. Cela dit, le petit nombre de SG testés justifie pleinement une vaste campagne de tests mécaniques et simulations supplémentaires à des fins de validation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les positions des évènements de recombinaison s’agrègent ensemble, formant des hotspots déterminés en partie par la protéine à évolution rapide PRDM9. En particulier, ces positions de hotspots sont déterminées par le domaine de doigts de zinc (ZnF) de PRDM9 qui reconnait certains motifs d’ADN. Les allèles de PRDM9 contenant le ZnF de type k ont été préalablement associés avec une cohorte de patients affectés par la leucémie aigüe lymphoblastique. Les allèles de PRDM9 sont difficiles à identifier à partir de données de séquençage de nouvelle génération (NGS), en raison de leur nature répétitive. Dans ce projet, nous proposons une méthode permettant la caractérisation d’allèles de PRDM9 à partir de données de NGS, qui identifie le nombre d’allèles contenant un type spécifique de ZnF. Cette méthode est basée sur la corrélation entre les profils représentant le nombre de séquences nucléotidiques uniques à chaque ZnF retrouvés chez les lectures de NGS simulées sans erreur d’une paire d’allèles et chez les lectures d’un échantillon. La validité des prédictions obtenues par notre méthode est confirmée grâce à analyse basée sur les simulations. Nous confirmons également que la méthode peut correctement identifier le génotype d’allèles de PRDM9 qui n’ont pas encore été identifiés. Nous conduisons une analyse préliminaire identifiant le génotype des allèles de PRDM9 contenant un certain type de ZnF dans une cohorte de patients atteints de glioblastomes multiforme pédiatrique, un cancer du cerveau caractérisé par les mutations récurrentes dans le gène codant pour l’histone H3, la cible de l’activité épigénétique de PRDM9. Cette méthode ouvre la possibilité d’identifier des associations entre certains allèles de PRDM9 et d’autres types de cancers pédiatriques, via l’utilisation de bases de données de NGS de cellules tumorales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous proposons une approche d’extraction des diagrammes de séquence à partir de programmes orientés objets en combinant l’analyse statique et dynamique. Notre objectif est d’extraire des diagrammes compacts mais contenant le plus d’informations possible pour faciliter la compréhension du comportement d’un programme. Pour cette finalité, nous avons défini un ensemble d’heuristiques pour filtrer les événements d’exécution les moins importants et extraire les structures de contrôles comme les boucles et la récursivité. Nous groupons aussi les objets en nous basant sur leurs types respectifs. Pour tenir compte des variations d’un même scénario, notre approche utilise plusieurs traces d’exécution et les aligne pour couvrir le plus possible le comportement du programme. Notre approche a été évaluée sur un système de simulation d’ATM. L’étude de cas montre que notre approche produit des diagrammes de séquence concis et informatifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Corteo is a program that implements Monte Carlo (MC) method to simulate ion beam analysis (IBA) spectra of several techniques by following the ions trajectory until a sufficiently large fraction of them reach the detector to generate a spectrum. Hence, it fully accounts for effects such as multiple scattering (MS). Here, a version of Corteo is presented where the target can be a 2D or 3D image. This image can be derived from micrographs where the different compounds are identified, therefore bringing extra information into the solution of an IBA spectrum, and potentially significantly constraining the solution. The image intrinsically includes many details such as the actual surface or interfacial roughness, or actual nanostructures shape and distribution. This can for example lead to the unambiguous identification of structures stoichiometry in a layer, or at least to better constraints on their composition. Because MC computes in details the trajectory of the ions, it simulates accurately many of its aspects such as ions coming back into the target after leaving it (re-entry), as well as going through a variety of nanostructures shapes and orientations. We show how, for example, as the ions angle of incidence becomes shallower than the inclination distribution of a rough surface, this process tends to make the effective roughness smaller in a comparable 1D simulation (i.e. narrower thickness distribution in a comparable slab simulation). Also, in ordered nanostructures, target re-entry can lead to replications of a peak in a spectrum. In addition, bitmap description of the target can be used to simulate depth profiles such as those resulting from ion implantation, diffusion, and intermixing. Other improvements to Corteo include the possibility to interpolate the cross-section in angle-energy tables, and the generation of energy-depth maps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Persistence of external trunk asymmetry after scoliosis surgical treatment is frequent and difficult to predict by clinicians. This is a significant problem considering that correction of the apparent deformity is a major factor of satisfaction for the patients. A simulation of the correction on the external appearance would allow the clinician to illustrate to the patient the potential result of the surgery and would help in deciding on a surgical strategy that could most improve his/her appearance. We describe a method to predict the scoliotic trunk shape after a spine surgical intervention. The capability of our method was evaluated using real data of scoliotic patients. Results of the qualitative evaluation were very promising and a quantitative evaluation based on the comparison of the simulated and the actual postoperative trunk surface showed an adequate accuracy for clinical assessment. The required short simulation time also makes our approach an eligible candidate for a clinical environment demanding interactive simulations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’acceptabilité d’un décès lors d’une simulation médicale reste débattue mais il existe peu de données sur la perspective des apprenants. Des médecins résidents ont effectué une pratique de code et ont rempli un questionnaire pré et post-simulation. Ils ont été exposés à deux scénarios où un bébé naissait sans signe de vie: 1. Nouveau-né ne répondant pas aux manœuvres de réanimation (DCD); 2. Nouveau-né s’améliorant avec une réanimation adéquate (REA). Les performances étaient évaluées à l’aide de la grille standardisée du Programme de Réanimation Néonatale. Le stress objectif (cortisol salivaire) et subjectif a été mesuré après le code. La rétroaction («feedback»), individuelle et en groupe, fut analysée à l’aide de méthodologies qualitatives. 59/62 apprenants ont répondu au questionnaire et 42 ont participé à la simulation. Tous les résidents trouvent les simulations bénéfiques et souhaitent y être exposés davantage. Le type et l’ordre des scénarios n’ont pas eu d’impact sur la performance. Un seul résident a interrompu les manœuvres de réanimation après 10 minutes d’asystolie, tel que recommandé, et 31% ont poursuivi après 20 minutes. Les participants trouvaient le scénario DCD plus stressant. Les niveaux de cortisol salivaire ont augmenté après les simulations (p<0.001) et ce, pour les deux scénarios. Cette augmentation était indépendante du scénario (p=0.06) et n’était pas associée à la performance. Les réponses à la question « Comment a été votre expérience? », ont permis d’identifier deux thèmes: 1. Le mannequin ne meurt pas en simulation médicale; 2. Le décès lors de la simulation signifie une réanimation inadéquate. Le décès lors d’une pratique de code est stressant, mais n’interfère pas avec la performance des soignants. Les apprenants trouvent cet exercice acceptable et bénéfique à leur pratique future.