938 resultados para Méthode des contours


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisé sous la co-direction de Linda Booij, Catherine Herba et Patricia Garel

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche, de type exploratoire et descriptif, s’intéresse à l’expérience et au point de vue des parents à l’égard de l’implication directe de leurs enfants en médiation familiale. La méthodologie privilégiée pour réaliser cette étude est qualitative, et la perspective théorique utilisée est la phénoménologie. L’échantillon est constitué de huit parents, tous ayant participé à une entrevue semi-dirigée au sujet de l’implication de leurs enfants dans le processus de médiation familiale. Les données ont été recueillies entre le mois de mai et octobre 2013, et ont été analysées en s’appuyant sur la méthode d’analyse de contenu telle que proposée par L’Écuyer (1990) ainsi que Mayer et Deslauriers (2000). Il ressort de cette recherche que l’implication directe des enfants en médiation familiale a une influence considérable sur le processus. En effet, la majorité des participants de la présente étude ont rapporté que l’implication de leurs enfants a été déterminante afin de conclure une entente au sujet du partage des responsabilités parentales. Aussi, les résultats suggèrent que la majorité des participants ont vécu de manière positive la participation de leurs enfants et sont satisfaits des retombées de l’implication. Par contre, quelques parents ont vécu de manière négative cette expérience. De tels résultats mettent en lumière les limites et risques liés à l’implication directe des enfants en médiation familiale. De plus, les modalités d’implication choisies par les médiateurs familiaux semblent avoir influencé le vécu des parents et de leurs enfants dans le processus. Les résultats donnent également accès à la perception des parents au sujet du vécu de leurs enfants avant, pendant et après le processus d’implication. Une suggestion qui émane de cette recherche est que l’enfant, bien qu’amené à prendre parole dans la médiation familiale, ne doit pas être tenu responsable d’une décision liée au partage des responsabilités parentales. Les conclusions de ce mémoire alimentent une stratégie en médiation familiale qui est peu documentée à partir de l’expérience et du point de vue des parents.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'otite moyenne est une condition fréquente chez le veau et peut parfois être subclinique, rendant difficile son diagnostic à la ferme. L'objectif de cette étude est d’estimer la sensibilité et la spécificité de l'échographie des bulles tympaniques pour le diagnostic d'otite moyenne clinique et subclinique et de déterminer sa répétabilité. Quarante veaux âgés entre 19 et 50 jours ont été sélectionnés dans une ferme de veaux de grain, en fonction des résultats de l'échographie réalisée à la ferme (A). L'échographie a été réalisée une seconde fois par le même échographiste (A') et par un second échographiste (B), et le diagnostic noté pour chaque bulle tympanique comme étant négatif, suspect ou positif. Les images ont été enregistrées pour relecture et le diagnostic noté. Les veaux ont été euthanasiés, soumis en nécropsie et l'histologie a été utilisée comme méthode de référence. À l'histologie, 45 bulles tympaniques étaient atteintes d'otite moyenne et 35 bulles tympaniques étaient saines. Selon l'échographiste et la classification des bulles tympaniques suspectes, la sensibilité de l'échographie variait de 32% à 63% et la spécificité variait de 84% à 100%. La répétabilité était modérée, avec des valeurs de kappa de 0,53 entre A' et B, de 0,48 entre A et A', et de 0,58 et 0,75 pour la relecture de leurs images par A' et B respectivement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plus de dix ans après la mise en place du projet d’harmonisation du droit du commerce électronique, l’ASEAN, « The Association of Southeast Asian Nations » rassemblant dix États membres en Asie du Sud-est, n’arrive toujours pas à doter chacun de ses États membres d’une législation harmonisée en la matière. Dans cette optique, nous tenterons, pour contribuer à cette harmonisation, de démontrer la situation problématique relative au droit du commerce électronique dans six des dix États membres de l’ASEAN où, en plus de leur non-uniformité législative, les textes nationaux régissant le formalisme du contrat électronique demeurent difficiles à comprendre, à interpréter et donc à appliquer ; ce qui cause parfois des erreurs interprétatives voire l’oubli total de ces textes. Cette expérience n’est pas unique dans l’ASEAN, car l’on trouve également de similaires situations dans d’autres juridictions, telles que le Canada et les États-Unis. Pour pallier cette rupture entre la loi et la jurisprudence, nous proposons une quête d’une méthode d’interprétation comme une piste de solution qui nous semble la plus pertinente au regard de l’état des textes déjà en vigueur et de l’objectif de l’harmonisation du droit du commerce électronique dans l’ASEAN. Parmi les méthodes interprétatives très variées, nous arrivons à identifier la méthode contextuelle, aussi large soit-elle, comme la méthode la plus pertinente eu égard aux caractéristiques particulières du formalisme du contrat électronique, à savoir l’écrit et la signature électroniques. Nous proposons donc une grille d’analyse de cette méthode composée de contextes juridique, technique et social, qui aideront les juristes, surtout les juges, à mieux saisir le sens des textes et à leur donner « une meilleure interprétation » en faveur de l’objectif de l’harmonisation du droit dans l’ASEAN.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Port-au-Prince, la ville la plus peuplée des Caraïbes est ceinturée de quartiers précaires connus sous l’appellation de bidonvilles. Ces quartiers construits généralement sur des terrains dangereux, envahis par une population en quête de logement, abritent la plus forte proportion des habitants de la ville. Ils constituent en même temps des lieux d’observation de l’inimaginable capacité des populations locales à garantir l’accès à certains services. À travers l’action d’une association locale évoluant à Village solidarité dans la zone métropolitaine de Port-au-Prince, nous avons étudié les apports et les limites des stratégies utilisées dans l’organisation de services publics d’électricité. L’analyse repose fondamentalement sur une approche de développement local reposant sur cinq notions complémentaires et interreliées qui sont les suivantes : le projet commun, l’appartenance et l’identité collective, les ressources, le leadership, l’opportunité politique. Les résultats de la recherche font état d’un projet commun aux contours assez flous qui reflète des insuffisances au niveau des modes de pensée, et au niveau des ressources matérielles et financières mises en jeu. Le style de leadership en place au sein de l’association est teinté de déterminisme religieux, pris au piège des manœuvres clientélistes des politiciens locaux et infantilisé par l’action des agences gouvernementales. A la fin de l’étude nous dégageons des pistes pour dynamiser les forces du milieu et réorienter l’action associative afin d’aller vers un projet collectif. Ces pistes reposent fondamentalement sur la transformation des modes de pensée influençant l’action et la transformation des pratiques organisationnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objet de cette étude porte sur la détermination de la sanction à imposer aux policiers ayant été reconnus coupables d’infractions criminelles, sur l’influence de l’article 18.2 de la Charte des droits et libertés de la personne dans cette détermination et sur les méthodes utilisées dans la jurisprudence arbitrale. Deux méthodes de détermination des sanctions s’opposent sur ce sujet, soit la méthode « large et libérale » et la méthode « stricte et littérale ». La méthode de détermination des sanctions « large et libérale » prévoit, entre autres, l’application de l’article 18.2 de la Charte des droits et libertés de la personne. Cette loi est de niveau quasi constitutionnel et prévoit, notamment, l’analyse objective du lien existant entre l’emploi de policier et l’infraction criminelle commise. Quant à la méthode de détermination des sanctions « stricte et littérale », elle résulte de l’application de la Loi sur la police qui est une loi ordinaire prévoyant un régime particulier pour les policiers reconnus coupables d’infractions criminelles. En effet, l’article 119 de la Loi sur la police implique, depuis son remaniement en 2000, la destitution automatique des policiers reconnus coupables d’une infraction criminelle poursuivable uniquement par voie de mise en accusation et la destitution des policiers reconnus coupables d’une infraction criminelle poursuivable soit sur déclaration de culpabilité par procédure sommaire, soit par voie de mise en accusation à moins que le policier ne puisse démontrer que des circonstances particulières ne justifient une mesure différente que la destitution. L’analyse réalisée dans le cadre de cette recherche vise la détermination des sanctions guidant les décisions des arbitres de griefs quant à la situation des policiers accusés et/ou reconnus coupables d’infractions criminelles en cours d’emploi. À cet effet, 25 décisions arbitrales et leurs révisions judiciaires ont été étudiées selon l’analyse de contenu à l’aide d’une grille d’analyse. L’analyse des données obtenues a par la suite été réalisée par l’entremise de l’analyse qualitative.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.