86 resultados para Fenêtres de temps


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous analysons des bulles d'espace-temps d'épaisseur finie en relativité générale. Les conditions d'énergie sont utilisées afin d'obtenir un ensemble de critères permettant de restreindre la structure du bord de la bulle. Dans le cas des bulles statiques et à symétrie sphérique, nous obtenons quatre inégalités différentielles équivalentes aux trois conditions d'énergie les plus communes. Nous montrons qu'elles sont équivalentes à un ensemble de deux inégalités différentielles simples lorsque le potentiel gravitationnel effectif a une forme particulière. Nous paramétrons alors l'espace-temps de manière à rendre la vérification de ces inégalités plus simple lorsqu'il sera question de bulles d'espace-temps. Nous traitons en particulier quatre formes de bulles, toutes caractérisées par un extérieur de type Schwarzschild de Sitter. Nous montrons que notre méthode donne les bons résultats lorsque la limite où l'épaisseur de la bulle tend vers zéro est prise. Nous terminons par un traitement succinct du problème d'une onde gravitationnelle se propageant dans un nuage de bulles d'espace-temps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur la qualité d’emploi chez les nouveaux diplômés des études postsecondaires au Canada. Elle est motivée par les nombreux bouleversements vécus par le marché du travail, la pénurie de main-d’oeuvre qualifiée et le fait que deux Canadiens sur trois sont directement concernés par la qualité d’emploi. En s’appuyant sur la typologie de Cloutier (2008), nous nous sommes fixé deux objectifs. Le premier vise à examiner l’évolution de la qualité d’emploi des nouveaux diplômés postsecondaires au Canada entre 1992 et 2007. Le deuxième objectif consiste à évaluer l’influence du niveau d’études, du domaine d’études et du sexe des nouveaux diplômés sur la qualité de leur emploi. L’analyse est de type empirique qui s’appuie sur les données de l’Enquête nationale auprès des diplômés réalisée auprès des promotions de 1990 et de 2005 par Statistiques Canada. Concernant le premier objectif, nos résultats indiquent que les dimensions rémunération, stabilité d’emploi et qualification se sont affaiblies en 2007 comparativement à 1992. Quant au deuxième objectif, nous avons trouvé que le niveau d’études et le domaine d’études sont des déterminants importants des quatre dimensions de la qualité d’emploi considérées. Un niveau d’études élevé augmente la rémunération annuelle et la probabilité d’occuper un emploi à temps plein. À l’opposé, la probabilité d’occuper un emploi qualifié et celle d’avoir un emploi permanent sont négativement associées au niveau d’études. Par ailleurs, il ressort de nos résultats que le marché du travail valorise particulièrement les domaines qui permettent aux étudiants d’acquérir des compétences professionnelles. La rémunération, les chances d’occuper un travail à temps plein et la probabilité d’accéder à un emploi qualifié sont relativement plus élevées pour les finissants dans ces domaines. Concernant l'impact du sexe, les résultats obtenus indiquent qu’il n’est pas statistiquement significatif dans le cas des dimensions de la stabilité d’emploi et de l’accès à un emploi qualifié. Néanmoins, les hommes gagnent en moyenne plus que les femmes et sont plus susceptibles d’occuper un emploi à temps plein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perception de mouvements est associée à une augmentation de l’excitabilité du cortex moteur humain. Ce système appelé « miroir » sous-tendrait notre habileté à comprendre les gestes posés par une tierce personne puisqu’il est impliqué dans la reconnaissance, la compréhension et l’imitation de ces gestes. Dans cette étude, nous examinons de quelle façon ce système miroir s’implique et se latéralise dans la perception du chant et de la parole. Une stimulation magnétique transcrânienne (TMS) à impulsion unique a été appliquée sur la représentation de la bouche du cortex moteur de 11 participants. La réponse motrice engendrée a été mesurée sous la forme de potentiels évoqués moteurs (PÉMs), enregistrés à partir du muscle de la bouche. Ceux-ci ont été comparés lors de la perception de chant et de parole, dans chaque hémisphère cérébral. Afin d’examiner l’activation de ce système moteur dans le temps, les impulsions de la TMS ont été envoyées aléatoirement à l’intérieur de 7 fenêtres temporelles (500-3500 ms). Les stimuli pour la tâche de perception du chant correspondaient à des vidéos de 4 secondes dans lesquelles une chanteuse produisait un intervalle ascendant de deux notes que les participants devaient juger comme correspondant ou non à un intervalle écrit. Pour la tâche de perception de la parole, les participants regardaient des vidéos de 4 secondes montrant une personne expliquant un proverbe et devaient juger si cette explication correspondait bien à un proverbe écrit. Les résultats de cette étude montrent que les amplitudes des PÉMs recueillis dans la tâche de perception de chant étaient plus grandes après stimulation de l’hémisphère droit que de l’hémisphère gauche, surtout lorsque l’impulsion était envoyée entre 1000 et 1500 ms. Aucun effet significatif n’est ressorti de la condition de perception de la parole. Ces résultats suggèrent que le système miroir de l’hémisphère droit s’active davantage après une présentation motrice audio-visuelle, en comparaison de l’hémisphère gauche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cet article, nous examinons le sort des documents qui ne sont pas destinés à vivre longtemps et qui ne méritent ainsi aucun traitement documentaire traditionnel. Nous défendrons la thèse que les traitements automatiques, bien que produisant des résultats de moindre qualité que les traitements humains, ont leur place pour le traitement de certains documents éphémères. Ils doivent cependant répondre à des normes de qualité qu’il faut définir de nouveau dans le contexte numérique.