986 resultados para Méthodes épidémiologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le juriste appelé à réfléchir à la question autochtone est inéluctablement entraîné à poser son regard sur les disciplines exogènes au droit : anthropologie, ethnologie, histoire, sociologie, pour n'en nommer que quelques-unes.  Cet exercice, fort salutaire, l'oblige à un « examen de conscience épistémologique ». En d'autres termes, il doit s'interroger sur la nature du savoir qu'il produit et sur les méthodes employées pour ce faire.  Mais cet exercice l'amène également à constater que, dans un univers résolument hostile à l'idée de valeurs universellement partagées, la légitimité du droit passe de plus en plus par la mobilisation du savoir produit par les sciences sociales énumérées plus haut.  Autrement dit, en raison du scepticisme à l'égard de l'objectivité des valeurs, la discipline prescriptive par excellence qu'est le droit se tourne vers les disciplines qui décrivent le réel.   Ainsi, on voit les avocats embrigader et instrumentaliser les résultats de recherche produits par les sciences sociales dans la définition des droits ancestraux.  Or, bien souvent, ces avocats ne s'interrogent pas sur les limites épistémologiques des disciplines qu'ils enrôlent au profit de leur client.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les principes et droits fondamentaux au travail, reconnus au sein de la communauté internationale depuis l'adoption de la Déclaration relative aux principes et droits fondamentaux au travail de 1998 par l'Organisation internationale du Travail (OIT), ont connu un succès inespéré dans la dernière décennie. Ils ont essaimé dans des instruments de régulation de diverses organisations internationales et d'acteurs clés de la société civile internationale. Il est maintenant possible de les trouver mentionnés dans des accords commerciaux de libre-échange entre États, ou dans les initiatives unilatérales des entreprises transnationales, comme les codes de conduite, et bilatérales, comme dans les accords-cadres passés avec les Fédérations syndicales internationales. Si ce phénomène d'appropriation  et de diffusion des principes et des droits fondamentaux au travail est louable, du moins en théorie, il soulève par ailleurs des problèmes systémiques au plan pratique. Les acteurs internationaux ont nettement privilégié des instruments de régulation non contraignants, dits de soft law, à côté des méthodes plus traditionnelles de réglementation du travail, comme celles découlant des obligations juridiques conventionnelles ou coutumières ayant pour destinataires les États souverains. Tant dans la forme que dans le fond, qu'elles soient d'origine publique ou privée, assorties ou non de mécanisme de suivi, les trajectoires normatives mises de l'avant par les acteurs internationaux embrassent souvent désormais une philosophie de la souplesse. Cette tendance conforte-t-elle le respect des droits des travailleurs sur le terrain ? En outre, la pluralité des mécanismes de contrôle ou de suivi, ainsi que la diversité des acteurs chargés d'appliquer les principes et droits fondamentaux au travail, concourent à la production d'interprétations parfois contradictoires entre elles. Laquelle aura préséance et qui en jugera dans un contexte décentralisé de mise en œuvre ? N'y a-t-il pas là un danger d'implosion du droit international du travail ? Dans ce contexte, l'adoption d'un nouvel instrument souple de régulation par l'OIT, la Déclaration de l'OIT sur la justice sociale pour une mondialisation équitable de 2008, peut-elle octroyer pour l'avenir à cette organisation internationale un certain leadership dans l'interprétation des principes et droits fondamentaux des travailleurs qui, pour lors, demeure le fait d'une pluralité d'acteurs internationaux comme nationaux ? 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies immunitaires chroniques incluant les maladies auto-immunes et inflammatoires touchent 20 à 25% de la population des pays occidentaux. La comparaison des taux de concordance chez les jumeaux ou l’histoire familiale de sujets atteints de la maladie cœliaque (maladie auto-immune de l’intestin) ou de l’œsophagite éosinophilique (maladie inflammatoire de l’œsophage) indiquent que des facteurs génétiques et environnementaux interviennent dans la susceptibilité à ces maladies. Cependant, ces études ne distinguent pas de manière claire la prédisposition génétique selon l’hétérogénéité clinique (enfants versus adultes) ou ethnique (stratification des populations). Méthodes. Les haplotypes HLA de prédisposition à la maladie cœliaque et les polymorphismes des gènes candidats IL-13 (R130Q), IL-5 (-746 T/G) et IL-5R (-80A/G) impliqués dans la physiopathologie de l’œsophagite éosinophilique, ont été caractérisés par la technique PCR-SSP sur l’ADN génomique. Résultats: Nos études familiales et cas-contrôles réalisées chez une population Québécoises avec un fond génétique très homogène nous a permis : i) d’éviter le problème de stratification des populations, ii) de confirmer que les gènes HLA sont également associés à la maladie cœliaque (enfants et adultes) au Québec comme dans les autres populations Caucasiennes, iii) de mettre en évidence le rôle du gène IL-13 dans la prédisposition à l’œsophagite éosinophilique (garçons et filles) et d’exclure les gènes IL-5 et IL-5R comme facteurs de susceptibilité dans notre population. Conclusion: Ce travail confirme pour la première fois l’impact des gènes HLA dans la prédisposition à la maladie cœliaque et le rôle du facteur génétique dans l’œsophagite éosinophilique chez une population Canadienne Française avec un fond génétique ayant un fort effet fondateur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Plusieurs polymorphismes nucléaires localisés sur les gènes des récepteurs nicotiniques cholinergiques CHRN sont associés au tabagisme. Cependant, peu d’études ont examiné l’association entre les polymorphismes sur les gènes CHRN et l’étourdissement. Les polymorphismes et les symptômes subjectifs sont peu être lié à la dépendance à la nicotine et à l’étourdissement ressenti lors de l’initiation. Le but de cette étude est d’étudier l’association entre 61 polymorphismes sur huit gènes CHRN (CHRNA3 CHRNA4 CHRNA5, CHRNA6, CHRNA7, CHRNB2, CHRNB3, CHRNB4) et l’étourdissement ressenti lors de l’initiation. Méthodes: Les données provenant d'une étude de cohorte longitudinale composée de 1293 étudiants, ont été analysées selon un devis d'étude gène-candidat. Les données ont été collectées par le biais de questionnaires auto-reportés aux troix mois, durant 5 ans. L’ADN provenent de la salive ou du sang a été génotypé pour 61 polymosphismes localisés sur les gènes CHRN ont été génotypés, à l'aide d'une stratégie de couverture maximale du gène. L'équation d'analyse est une régression logistique, incluant un ajustement sur l’âge, le sexe et l’origine ethnique. Résultats: Trois SNPs sur le gène CHRNA6 (rs7812298, rs2304297, rs7828365) sont associés à notre phénotype (OR (95% CI)= 0.54 (0.36, 0.81), 0.59 (0.40, 0.86) and 0.58 (0.36, 0.95, respectivement),. Trois autres polymorphismes (rs3743077 (CHRNA3), rs755204 (CHRNA4), rs7178176 (CHRNA7)) sont également associés à phénotype (OR (95% CI)=1.40 (1.02, 1.90), 1.85 (1.05, 3.27) and 1.51 (1.06, 2.15), respectivement) Conclusion: Plusieurs SNPs localisés sur les gènes CHRN sont associés à l'étourdissement, un phénotype de l'initiation qui est peut-être associé à la dépendance à la nicotine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU). »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les forêts occidentales sont aujourd’hui de plus en plus prisées pour la pratique d’activités récréatives en milieu naturel. Dès lors, la mise en place d’une gestion intégrée des forêts est plus que jamais indispensable au maintien des conditions nécessaires à la pratique de l’ensemble des activités sur le territoire. Le Québec s’est doté d’une nouvelle législation pour répondre aux nombreux enjeux qui touchent le milieu forestier, notamment en ce qui a trait à l’harmonisation entre les activités récréatives et la production ligneuse. Dans le cadre de cette recherche, nous nous sommes intéressés au concept d’expérience du visiteur comme moyen de faciliter cette harmonisation. Il s’agissait à la fois de caractériser l’expérience de visite des utilisateurs d’un parc régional et de se questionner sur son opérationnalisation dans l’aménagement forestier. Deux méthodes qualitatives complémentaires ont été utilisées : d’une part, l’analyse de récits inscrits dans des livres d’or placés dans différents hébergements et d’autre part, des entrevues ont été conduites auprès de visiteurs rencontrés sur le site. Les résultats révèlent la pertinence de considérer l’expérience du visiteur pour favoriser une utilisation plurielle et harmonieuse du territoire forestier. Son étude permet une compréhension fine des composantes communes et spécifiques des expériences, en fonction des visiteurs. Par ailleurs, l’étude témoigne de la possibilité de mettre en relation des typologies d’expériences recherchées et les modalités d’harmonisation. Enfin, au-delà de l’expérience, le suivi de la perception de la foresterie et des représentations peut également s’avérer pertinent pour les gestionnaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les attitudes et comportements alimentaires développés pendant la petite enfance influencent grandement la relation future du mangeur à l’égard des aliments. Le parent s’avère en ce sens des plus déterminants. Objectifs. Cette étude vise à connaître les pratiques et attitudes employées par les parents québécois d’enfants d’âge préscolaire pour favoriser le « bien manger » ainsi que le repas familial agréable. Méthodes. La collecte de données a été effectuée à l’aide de cartes postales qui étaient distribuées dans six cent cinquante Centres de la Petite Enfance parmi les mille retrouvés dans la province de Québec pour ensuite être remises aux parents. L’analyse des réponses aux deux questions ouvertes figurant sur la carte postale a été effectuée en se basant sur le modèle des prises alimentaires de Jean-Pierre Poulain. Résultats. Plus de mille (1257) cartes postales ont été retenues aux fins d’analyses. Les données recueillies permettent dans un premier temps de connaître la perception des parents quant à la notion de manger bien. Les notions de qualité et de quantité, diamétralement opposées se démarquent. Dans le cas du repas familial, la discussion, la présence de tous les membres à table ainsi que l’absence de télévision sont abondamment mentionnées. Conclusion. Cette étude permet de constater la variété des stratégies employées par les parents québécois au moment du repas. Ces données d’une grande pertinence pour la santé publique permettront de cibler les messages clés à promouvoir auprès de ces acteurs d’influence dans le développement des habitudes alimentaires des tout petits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.