993 resultados para Problème de Steklov-Neumann
Resumo:
L’auteur traite ici de la télémédecine, une sorte d’application des technologies de l’information et de la communication aux activités du secteur des soins de santé. Il fait d’abord état des nombreux produits et services qu’offre cette application, allant de la prise de rendez-vous chez le médecin grâce à l’informatique, aux vêtements dits intelligents et qui sont munis de capteurs permettant la délivrance à distance des médicaments directement au patient. Le nombre d’applications de la télémédecine étant quasi illimité, nombreuses deviennent les informations à gérer et qui se rapportent tant aux patients qu’au personnel soignant et qu’à leurs collaborateurs. Cela pose évidemment le problème de la confidentialité et de la sécurité se rapportant à de telles applications. C'est justement cette question qui sera traitée par l’auteur qui nous rappelle d’abord l’importance en Europe de l’encadrement juridique de la télémédecine afin d’assurer la protection des données médicales. Une telle protection a surtout été consacrée à travers des directives émanant de la Communauté européenne où la confidentialité et la sécurité des traitements de données ne sont qu’une partie des règles qui assurent la protection des données médicales.
Resumo:
Nous sommes quotidiennement envahis pour d’innombrables messages électroniques non sollicités, qu’il s’agisse d’annonces publicitaires, de virus ou encore de ce qu’on appelle désormais les métavirus. Ces derniers sont des canulars transmis aux internautes leur suggérant de poser tel ou tel geste, lequel causera des dommages plus ou moins importants au système de l’utilisateur. L’auteur se penche sur la problématique que suscitent ces métavirus au niveau de la responsabilité civile de leurs émetteurs. Il en vient à la conclusion que ce régime, bien qu’applicable en théorie, demeure mal adapté au problème notamment au niveau de la preuve des éléments de la responsabilité civile. Il faut d’abord établir la capacité de discernement (ou l’incapacité) de l’émetteur, la connaissance ou non de cet état par le destinataire et la preuve d’un comportement fautif de la part de l’émetteur voire même des deux parties. Reste à savoir quelle aurait été l’attitude raisonnable dans la situation. À noter que la victime pourrait être trouvée partiellement responsable pour ses propres dommages. Reste alors à prouver le lien de causalité entre l’acte et le dommage ce qui, compte tenu de la situation factuelle, peut s’avérer une tâche ardue. L’auteur conclut que l’opportunité d’un tel recours est très discutable puisque les coûts sont disproportionnés aux dommages et car les chances pour qu’un juge retienne la responsabilité de celui qui a envoyé le métavirus sont assez faibles. La meilleure solution, ajoute-t-il, reste la prudence.
Resumo:
Les maladies immunitaires chroniques incluant les maladies auto-immunes et inflammatoires touchent 20 à 25% de la population des pays occidentaux. La comparaison des taux de concordance chez les jumeaux ou l’histoire familiale de sujets atteints de la maladie cœliaque (maladie auto-immune de l’intestin) ou de l’œsophagite éosinophilique (maladie inflammatoire de l’œsophage) indiquent que des facteurs génétiques et environnementaux interviennent dans la susceptibilité à ces maladies. Cependant, ces études ne distinguent pas de manière claire la prédisposition génétique selon l’hétérogénéité clinique (enfants versus adultes) ou ethnique (stratification des populations). Méthodes. Les haplotypes HLA de prédisposition à la maladie cœliaque et les polymorphismes des gènes candidats IL-13 (R130Q), IL-5 (-746 T/G) et IL-5R (-80A/G) impliqués dans la physiopathologie de l’œsophagite éosinophilique, ont été caractérisés par la technique PCR-SSP sur l’ADN génomique. Résultats: Nos études familiales et cas-contrôles réalisées chez une population Québécoises avec un fond génétique très homogène nous a permis : i) d’éviter le problème de stratification des populations, ii) de confirmer que les gènes HLA sont également associés à la maladie cœliaque (enfants et adultes) au Québec comme dans les autres populations Caucasiennes, iii) de mettre en évidence le rôle du gène IL-13 dans la prédisposition à l’œsophagite éosinophilique (garçons et filles) et d’exclure les gènes IL-5 et IL-5R comme facteurs de susceptibilité dans notre population. Conclusion: Ce travail confirme pour la première fois l’impact des gènes HLA dans la prédisposition à la maladie cœliaque et le rôle du facteur génétique dans l’œsophagite éosinophilique chez une population Canadienne Française avec un fond génétique ayant un fort effet fondateur.
Resumo:
Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.
Resumo:
Article
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
De nombreux jeunes sont aux prises avec un problème de consommation de substances psychoactives. Bien que plusieurs traitements soient reconnus efficaces, les taux d’abandon chez les jeunes toxicomanes sont élevés et cela influence leur condition post-traitement. L’identification des caractéristiques des jeunes liés à l’abandon et à la condition post-traitement est donc nécessaire pour permettre d’adapter nos interventions en fonction des besoins des jeunes. La relation entre l’abandon du traitement ainsi que la condition post-traitement et diverses caractéristiques prétraitement a été examinée chez un échantillon de 215 clients adolescents admis à Portage entre 2003 et 2008, évalués avec l’instrument Indice de gravité d’une toxicomanie pour les adolescents (Germain, Landry, & Bergeron, 2003, 1999). Les relations entre l’abandon du traitement et des variables concernant leur consommation, leur état de santé, leurs problématiques liées à leurs occupations, leur état psychologique, leurs difficultés vécues auprès des proches et dans la famille ainsi que leurs difficultés socio-judiciaires ont été testées. Ces mêmes variables ont été utilisées pour chercher à prédire la condition post-traitement. Les régressions logistiques montrent qu’un premier séjour en communauté thérapeutique et les difficultés interpersonnelles prédisent l’abandon du traitement. Une fois les analyses réalisées de façon séparée selon le sexe, ces relations ne demeurent significatives que pour les filles. Les résultats des régressions linéaires multiples réalisées pour étudier la condition post-traitement ne permettent pas de retrouver les variables prévisionnelles rapportées dans les écrits scientifiques pour les clientèles adultes. Des questions sont soulevées quant à la pertinence de l’Indice de gravité d’une toxicomanie pour les adolescents (Germain, Landry, & Bergeron, 2003, 1999) pour prédire l’abandon et la condition post-traitement.
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.
Resumo:
Les manuels d’histoire ont souvent fait l’objet d’analyses concernant leur contenu et leur qualité, mais rarement leurs usages en classe. Cette thèse vise à décrire et analyser comment des enseignants d’histoire du Québec au secondaire utilisent le manuel et toute autre ressource didactique. Le problème consiste à mieux connaître ce qui se passe en classe depuis l’implantation de la réforme curriculaire, en 2001, et comment les conceptions des enseignants influencent leurs pratiques en lien avec l’exercice de la méthode historique. Ce travail décrit des pratiques enseignantes selon leur intervention éducative, les ressources didactiques utilisées et l’activité de l’élève en classe. Pour ce faire, la collecte de données est réalisée au travers d’un sondage en ligne (n= 81), d’observations en classe et d’entrevues (n=8) avec les participants. Les enseignants d’histoire utilisent souvent le manuel, mais leur intervention n’est pas structurée par son contenu ou ses exercices. Les cahiers d’exercices ou le récit de l’enseignant semblent structurer principalement leurs interventions. En fait, leurs conceptions sur l’enseignement et l’apprentissage en histoire déterminent le plus souvent l’usage du manuel et des autres ressources didactiques d’une manière traditionnelle ou d’une manière qui exerce authentiquement la méthode historique. Afin de décrire ces différents usages, la thèse propose une typologie qui distingue les différentes modalités mises en place afin d’utiliser les ressources didactiques et exercer la méthode historique. Trois principaux types sont énoncés : intensif, extensif et critique. Un quatrième type a été ajouté afin de mieux nuancer les différentes pratiques enseignantes rencontrées : extensif-méthodique. Ce dernier type s’explique par une pratique enseignante qui concilie les types extensif et critique selon les besoins de l’enseignant. La thèse souligne la persistance de pratiques transmissives et magistrocentrées qui limitent un exercice authentique de la méthode historique, alors que le curriculum vise un enseignement constructiviste et que plus de ressources sont disponibles pour les enseignants.
Resumo:
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.
Resumo:
La question des coûts des soins de santé gagne en intérêt dans le contexte du vieillissement de la population. On sait que les personnes en moins bonne santé, bien que vivant moins longtemps, sont associées à des coûts plus élevés. On s'intéresse aux facteurs associés à des coûts publics des soins de santé plus élevés au niveau individuel, chez les Québécois vivant en ménage privé âgés de 65 ans et plus, présentant au moins un type d’incapacité. À l’aide de modèles de régression, la variation des coûts pour la consultation de professionnels de la santé et la prise de médicaments a été analysée en fonction du nombre d’incapacités ainsi que de la nature de celles-ci. Les informations sur l’état de santé et la situation socio-démographique proviennent de l’Enquête sur les limitations d’activités (EQLA) de 1998, celles sur les coûts du Fichier d’inscription des personnes assurées (FIPA) de la Régie de l’Assurance maladie du Québec (RAMQ), pour la même année. Les résultats montrent que les deux types de coûts considérés augmentent en fonction du nombre d’incapacités. D’autre part, des coûts plus élevés ont été trouvés chez les personnes présentant une incapacité liée à l’agilité concernant la consultation de professionnels de la santé, alors que, concernant la prise de médicaments, le même constat s’applique aux personnes avec une incapacité liée à la mobilité. Les deux types de coûts considérés présentent un niveau plus élevé chez les personnes présentant une incapacité liée au psychisme, en particulier lorsque l’on considère la prise de médicaments. Ces observations soulignent l’intérêt de considérer la nature du problème de santé lorsque l’on étudie les déterminants individuels du niveau des coûts des soins de santé.
Resumo:
Le présent travail de recherche analyse l’acte d’achat et fait une brèche dans la relation mystérieuse que nous développons avec les biens de consommation. En microéconomie et en sociologie de la consommation, on considère que le consommateur fait des choix rationnels, et ce à travers un processus d’achat (Langlois, 2002). Ce processus est divisé en cinq étapes : la reconnaissance du problème, la recherche d’informations, l’évaluation des alternatives en concurrence, le choix et l’analyse post-achat (Brée, 2004). Bien que l’étape du choix soit certainement l’étape charnière du processus, car elle détermine le choix final menant à l’achat, elle est souvent comprise comme l’aboutissement de calculs préalables et non comme un moment régi par ses propres dynamiques. Le paradigme dominant en matière de choix, la théorie du choix rationnel, avance que nous formulons nos choix en recourant à des calculs d’utilité. Nous évaluons rationnellement les options afin d’optimiser notre situation en sélectionnant le choix qui nous rapporte le plus en nous coûtant le moins (Abell, 1991). Par contre, certains critiques de la théorie du choix rationnel allèguent que la multiplicité de choix encouragée par notre société engendre un stress lors de l’achat qui embrouille le jugement menant au choix. Cela invite à considérer la singularité du moment menant au choix. Que se passe-t-il chez le consommateur lorsqu’il est mis en présence d’un objet? En vérité, les disciplines qui s’intéressent au comportement du consommateur éludent la présence de l’objet comme forme d’influence sur le jugement. Dans le cadre de cette recherche, nous entendons par la mise en présence le moment où un individu est en présence d’un objet spécifique ou d’une représentation d’un objet. Lorsque mis en présence de l’objet, le consommateur fera un jugement qui sera potentiellement relatif aux sensations de beauté (Hutcheson, 1991) et aux émotions provoquées par un objet spécifique. Ainsi, les sens « externes » (la vue, l’ouïe, l’odorat, le goût, le toucher) stimulent un sens « esthétique » : le sens interne de la beauté (Hutcheson, 1991). De plus, il peut survenir, en consommation, lors de la mise en présence que l’émotion prenne la forme d’un jugement (Nussbaum, 2001). On définit les émotions comme un état affectif situationnel dirigé vers une chose (Desmet, 2002). C’est ainsi que la recherche s’est articulé autour de l’hypothèse suivante : de quelle manière la mise en présence influence le jugement du consommateur pendant le processus d’achat? Nous avons mené une enquête inspirée d’une approche qualitative auprès de consommateurs dont les résultats sont ici exposés et discutés. L’enquête tente dans un premier temps de cerner l’impact de la mise en présence dans le processus d’achat. Puis, le récit de magasinage de quatre participants est analysé à l’aide d’éléments tels les critères de choix, les facteurs, les influences et les contraintes. L’enquête montre notamment que la mise en présence intervient et modifie le jugement du consommateur. L’analyse des entretiens met en avant une tendance chez nos participants à la scénarisation tout au long du processus d’achat et particulièrement lors des moments de mise en présence. Nous avons observé que les moments de mise en présence alimentent le scénario imaginé par le consommateur et lui permet de créer des scénarios de vie future en interaction avec certains biens de consommation.
Resumo:
Pourquoi faire un effort pour la communauté sans rien recevoir en retour? C’est habituellement par conviction ou pour répondre à une norme sociale. En s’intéressant au problème du recyclage, nous définissons un modèle de comportement qui intègre ces deux facteurs. Nous déterminons sous quelles conditions un individu décide d’agir bénévolement, puis nous étudions comment ce comportement se propage dans la population. Cela nous permet de déduire comment un gouvernement doit pondérer ses efforts entre la publicité et la consigne pour tendre vers un taux de recyclage parfait au coût minimal. Nous prouvons aussi que dans certaines circonstances, il est préférable de ne pas encourager la participation au bien public. En effet, à mesure que plus de gens y participent, des tensions sociales émergent entre ceux qui font un effort et ceux qui n’en font pas. Celles-ci peuvent être assez fortes pour contrebalancer les bénéfices attendus du bien public
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.