976 resultados para méthodes de certification


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inscrite dans la tradition monographique en sociologie et en anthropologie, cette thèse prend pour objet la diversité des pratiques et des idéologies caractéristiques des différents types de populations rurales distingués en fonction de l'enracinement territorial, afin d'apporter un nouvel éclairage sur les conflits sociaux actuels dans tous les milieux ruraux québécois qui surgissent notamment de l'accroissement du nombre des néo-ruraux dont les visions du monde s'opposent à celles des agriculteurs, dont le nombre diminue sans cesse. Prenant un village comme observatoire, il s'agit de rendre compte du mouvement totalisant de l'expérience de la vie en société à la fois dans ses dimensions « matérielles » et « symboliques ». L'étude des principales formes de vie sociale (religieuse, économique et politique) se fait grâce à des méthodes diversifiées: l'observation participante, l'analyse statistique, l'analyse du discours, le travail sur les archives municipales et l'histoire orale. L'analyse des différentes formes de vie sociale montre que leur organisation est structurée par deux principaux modèles. Le modèle public et communautaire comprend les personnes qui valorisent l'implication de l'État et des professionnels dans la gestion collective de la redistribution des richesses et dans le développement des milieux ruraux. Ces personnes occupent une position économique « marginale » à l'intérieur de la localité et sont plus près des milieux urbains tant par leurs positions que par leurs visions du monde. Quant au modèle privé et familial, il comprend les personnes défendant le rôle prépondérant des réseaux familiaux dans le développement local et la fermeture de la localité face à la concurrence des marchés extérieurs et aux interventions politiques exogènes. Les représentants de ce modèle occupent une position économique locale dominante, mais se sentent de plus en plus dominés politiquement face aux interventions extérieures des représentants politiques régionaux et des professionnels ainsi qu'économiquement à l'échelle mondiale où ils occupent une position dominée. Les oppositions sous-jacentes à ces deux modèles s'inscrivent dans une histoire ancienne qui met en scène d'une part les élites traditionnelles liées à l'Église et les notables francophones scolarisées et d'autre part les élites industrielles et commerciales qui succèdent aux anglophones dès les années 1920. Le sens et le contenu des modèles varient légèrement avec les transformations récentes de la structure familiale et la régionalisation des pouvoirs politiques et religieux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La Vitamine A (rétinol, ROL) et son métabolite l’acide rétinoïque (AR) sont essentielles pour l’embryogénèse. L’excès comme l’insuffisance d’AR sont nocives. L’AR est régularisé dans l’embryon par des gènes spécifiques (ALDH, CRABP, CYP). Hypothèse : Les grandes variations d’AR dans le plasma des adultes normaux, nous ont orienté à mesurer les rétinoïdes (ROL et RA) dans le sang de cordon ombilical, pour évaluer des corrélations avec des polymorphismes des gènes impliquées dans le métabolisme de l’AR et le développement rénal-(RALDH2, CRABP2, CYP26A1; B1). Vérifier pour des corrélations entre ces rétinoïdes et/ou avec la taille de reins à la naissance. Méthodes : Extraction du ROL et RA du sang de cordon ombilical de 145 enfants et analyse par HPLC. Le volume des reins a été mesuré par ultrasonographie et l’ADN génomique leucocytaire extrait (FlexiGene DNA-Kit). 10 échantillons d’ADN ont été exclus (qualité). Les htSNP : ALDH1A2, CRABP2, CYP26A1;B1 du génome humain (HapMap) ont été séquencés et génotypés (Sequenom iPlex PCR).Des testes bio-statistiques des fréquences génotypiques et alléliques ont été effectués (Single-Locus, χ2, Kruskal-Wallis, Allelic-Exact).Des corrélations (ROL, RA, SNPs, V-reins) ont été analysés (Kendall-tau /Oakes). Résultats : La Δ RA (0.07-550.27 nmol/l) non corrélé avec la Δ ROL (51.39-3892.70 nmol/l). Il n’y a pas d’association ROL ou RA avec les volumes des reins ou avec les SNPs/ CYP21A1;B1. Corrélations trouvées : 1. (p=0.035), polymorphisme génétique ALDH1A2-SNP (rs12591551:A/C) hétérozygote/CA, (25enfants, 19%) avec moyennes d’AR (62.21nmol/l). 2. (p=0.013), polymorphisme CRABP2-SNP (rs12724719:A/G) homozygote/AA (4 enfants, 3%) avec hautes valeurs moyennes d’AR (141,3 nmol/l). Discussion-Conclusion : Les grandes ΔRA suggèrent une variabilité génique individuelle du métabolisme de ROL. Les génotypes (CA)-ALDH1A2/ SNP (rs12591551:A/C) et (AA) -CRABP2/SNP (rs12724719:A/G) sont associés à des valeurs moyennes hautes d’AR, pouvant protéger l’embryogénèse lors d’une hypovitaminose A maternelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cadriciels et les bibliothèques sont indispensables aux systèmes logiciels d'aujourd'hui. Quand ils évoluent, il est souvent fastidieux et coûteux pour les développeurs de faire la mise à jour de leur code. Par conséquent, des approches ont été proposées pour aider les développeurs à migrer leur code. Généralement, ces approches ne peuvent identifier automatiquement les règles de modification une-remplacée-par-plusieurs méthodes et plusieurs-remplacées-par-une méthode. De plus, elles font souvent un compromis entre rappel et précision dans leur résultats en utilisant un ou plusieurs seuils expérimentaux. Nous présentons AURA (AUtomatic change Rule Assistant), une nouvelle approche hybride qui combine call dependency analysis et text similarity analysis pour surmonter ces limitations. Nous avons implanté AURA en Java et comparé ses résultats sur cinq cadriciels avec trois approches précédentes par Dagenais et Robillard, M. Kim et al., et Schäfer et al. Les résultats de cette comparaison montrent que, en moyenne, le rappel de AURA est 53,07% plus que celui des autre approches avec une précision similaire (0,10% en moins).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation de la douleur chez les oiseaux est difficile, puisque la plupart se comportent comme des proies et ont tendance à masquer tout signe extérieur de douleur. Les doses et les drogues utilisées pour traiter la douleur des oiseaux sont la plupart du temps basées sur une extrapolation d’autres espèces, ainsi que sur l’expérience clinique. Peu d’études de pharmacocinétique, d’efficacité et de toxicité sont disponibles dans la littérature. La plupart des études rapportées utilisent des stimuli nociceptifs éloignés des douleurs cliniques, comme les stimuli électriques ou thermiques, qui sont difficilement extrapolables à des situations rencontrées en pratique. L’objectif de notre projet était d’évaluer les effets analgésiques de deux doses de meloxicam chez le pigeon à l’aide d‘un modèle de fracture du fémur. La douleur post-opératoire a été évaluée pendant les quatre premiers jours suivant la chirurgie par trois méthodes : le suivi du poids porté sur la patte opérée comparativement à l’autre patte, quatre différentes échelles descriptives de douleur et la réalisation d’éthogrammes à l’aide d’enregistrements vidéo. L’administration de 0,5 mg/kg PO q12h de meloxicam n’a pas permis de réduire significativement les indicateurs de douleur mesurés comparativement à un groupe témoin recevant de la saline. Les pigeons ayant reçu 2 mg/kg PO q12h de meloxicam ont montré une réduction significative des indicateurs de douleur mesurés par les différentes méthodes. Nos résultats suggèrent que l’administration de 2 mg/kg PO q12h aux pigeons suite à une chirurgie orthopédique procure une analgésie supérieure aux doses actuellement recommandées dans la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.