495 resultados para Systèmes tutoriels intelligents


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cyborg est un avatar de ce que permet la science-fiction lorsqu’elle s’offre comme terrain où développer une heuristique des identités genrées. Donna Haraway, dans le Manifeste cyborg, a relevé le potentiel de liberté discursive que promettait cette figure romanesque. Il m’apparaît que, depuis sa fictionnalisation puis sa théorisation dans les années 1980 et 1990, le cyborg a muté au sein de l’entreprise science-fictionnelle littéraire. Le Silence de la Cité d’Élisabeth Vonarburg et Le Goût de l’immortalité de Catherine Dufour présentent des personnages dont la cyborgitude problématise les questions identitaires du genre humain, à travers une écriture spécifique, affectée par les technologies. Mon analyse des procédés scripturaux s’effectue de pair avec une analyse gender, ce qui me permet de mieux saisir la fictionnalisation toujours changeante des cyborgs dans les oeuvres de Vonarburg et de Dufour. Ces cyborgs déconstruisent les frontières des systèmes binaires traditionnels, en explorant les possibilités trans-genres et trans-espèces que permettent les métamorphoses de leurs corps excentriques. En tant que représentations fantasmées de désirs autrement inavouables, les cyborgs science-fictionnels témoignent du malaise inhérent de couples comme homme/femme, humain/animal ou organique/artificiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intégration des soins et des services de santé est vue autant, par les décideurs, par les professionnels que par les usagers, comme une nécessité pour assurer une meilleure accessibilité, pour favoriser la continuité et la coordination et pour améliorer la qualité des soins et services tout en contrôlant les coûts. Depuis près de deux décennies, des réseaux intégrés de soins et de services de santé se développent dans les pays de l’OCDE. Ce phénomène a généré une littérature plutôt abondante sur les conditions organisationnelles supportant l’intégration des soins et plus récemment, sur l’importance du rôle et de la place des professionnels dans ces structures. Les données empiriques et les écrits mettent en évidence que les infirmières ont joué un rôle important dans la mise en place des réseaux intégrés de services depuis leurs débuts. Cette étude vise à identifier les pratiques stratégiques des infirmières qui sont impliquées dans des réseaux intégrés de services de santé et de comprendre comment ces pratiques favorisent des apprentissages organisationnels permettant l’ajustement des pratiques de l’ensemble des intervenants dans le sens de l’intégration clinique. Elle vise aussi à mettre en évidence les facteurs individuels et organisationnels impliqués dans le développement de ces pratiques et dans le processus d’apprentissage organisationnel. Une revue des écrits sur les réseaux de services intégrés et sur l’intégration clinique, ainsi que sur l’apprentissage organisationnel et sur l’analyse stratégique a confirmé que ces écrits, tout en étant complémentaires, soutenaient les objectifs de cette étude. En effet, les écrits sur l’intégration présentent des déterminants de l’intégration sans aborder les pratiques stratégiques et sont discrets sur l’apprentissage organisationnel. Les écrits sur l’apprentissage organisationnel abordent le processus d’apprentissage, mais ne décrivent pas les pratiques favorisant l’apprentissage organisationnel et sont peu loquaces sur les facteurs influençant l’apprentissage organisationnel. Enfin, les écrits sur l’analyse stratégique discutent des systèmes et des processus dynamiques en incluant les conditions individuelles et organisationnelles, mais ne font pas allusion à l’apprentissage organisationnel. Afin de découvrir les pratiques stratégiques ainsi que les apprentissages organisationnels, et de comprendre le processus d’apprentissage et les facteurs impliqués dans celui-ci, nous avons eu recours à un devis d’étude de cas multiples où nous nous sommes attardés à étudier les pratiques d’infirmières évoluant dans quatre situations visant l’intégration clinique. Ces situations faisaient partie de trois réseaux intégrés de services de santé impliquant des professionnels de différentes disciplines rattachés soit, à un centre hospitalier ou à un centre local de services communautaires. Trois études de cas ont été rédigées à partir des informations émanant des différentes sources de données. Dans le cadre de cette étude, quatre sources de données ont été utilisées soit : des entrevues individuelles avec des infirmières, d’autres professionnels et des gestionnaires (n=60), des entrevues de groupe (n=3), des séances d’observations (n=12) et l’étude de documents d’archives (n=96). À l’aide des données empiriques recueillies, il a été possible de découvrir quinze pratiques stratégiques et de préciser la nature des apprentissages qu'elles généraient. L’analyse des cas a également permis de mieux comprendre le rapport entre les pratiques stratégiques et les apprentissages organisationnels et d’apporter des précisions sur le processus d’apprentissage organisationnel. Cette étude contribue à la pratique et à la recherche, car en plus d’offrir un modèle d’apprentissage organisationnel intégré, elle précise que le processus d’apprentissage organisationnel est propulsé grâce à des boucles d’apprentissages stimulées par des pratiques stratégiques, que ces pratiques stratégiques s’actualisent grâce aux ressources individuelles des infirmières et aux facteurs organisationnels et enfin, que ces apprentissages organisationnels favorisent des changements de pratiques soutenant l’intégration clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’irradiation (IR) est utilisée dans le traitement de plusieurs cancers et désordres hématologiques, en particulier dans les protocoles de conditionnement précédents les transplantations de moelle osseuse. L’emploi de doses réduites d’IR semble favoriser le succès de la prise de greffe. Cette observation soulève un point de plus en plus discuté dans la littérature, soit l’importance de l’intégrité du microenvironnement pour la transplantation et le bon fonctionnement de l’hématopoïèse. L’IR induit la sénescence des cellules stromales de la moelle osseuse in vitro. Ce mécanisme de défense cellulaire entraînant un arrêt de prolifération permanent est également observé in vivo dans différents systèmes, mais n’a pas encore été étudié dans le contexte de la niche hématopoïétique. Les travaux présentés dans cette thèse ont pour objectif de déterminer si l’IR induit la sénescence des cellules stromales de la moelle osseuse et si une telle induction altère les fonctions hématopoïétiques. Nos résultats ont permis de démontrer pour la première fois qu’une IR corporelle totale induit effectivement la sénescence des cellules stromales de la moelle osseuse. En outre, cette altération du microenvironnement affecte la lymphopoïèse B de façon Ink4a/Arf-dépendante (1er article). De plus, les modifications systémiques qui résultent de l’IR compromettent l’homéostasie osseuse en augmentant la résorption de l’os, sans toutefois diminuer la formation de celui-ci (2e article). Ces données nous permettent de mieux comprendre les effets de la sénescence des cellules stromales de la moelle osseuse sur les fonctions hématopoïétiques. Par ailleurs, elles suggèrent que l’emploi de drogues et/ou de procédés n’induisant pas la sénescence des cellules stromales de l’os offrirait un meilleur pronostic à long terme pour les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conciliation, un mécanisme alternatif de résolution des conflits, cherche à la fois à maintenir une relation d'affaires ainsi qu'à raviver la communication et l’équilibre des pouvoirs entre deux parties opposées. Son véritable esprit consiste à faire en sorte que le citoyen récupère son rôle principal dans la solution de ses conflits et qu’il agisse sans l'intervention de l'État. Contrairement aux autres systèmes juridiques, le système juridique colombien donne au conciliateur un pouvoir décisionnel et/ou consultatif dans un cas concret. Aussi, les termes médiation et conciliation sont parfois utilisés comme synonymes. Cependant, ces termes se différencient selon la participation du tiers conciliateur ou médiateur au processus de résolution des conflits. In mediation, the mediator controls the process through different and specific stages: introduction, joint session, caucus, and agreement, while the parties control the outcome. Par ailleurs, même si ce sont des concepts universels grâce aux textes juridiques, ces mécanismes de résolution des conflits demeurent encore méconnus des citoyens. La pratique de la conciliation ne connaît pas de frontières; elle est répandue partout dans le monde. Dans les années 90, les pays d’Amérique latine, plus précisément la Colombie, ont commencé à envisager la possibilité de prendre part dans cette enrichissante expérience grâce aux progrès législatifs et institutionnels qui ont été réalisés en matière de mécanismes alternatifs de résolution des conflits. En matière de conciliation, en Colombie, il y a une grande richesse normative mais les lois, dispersées et difficiles à interpréter, génèrent de l’insécurité et de l’incertitude juridique. De plus, entamer le processus de conciliation se fait de diverses manières, la plus controversée étant sans doute la conciliation préalable obligatoire. Cette méthode imposée a été la cible de diverses critiques. En effet, ces critiques concernent le fait qu’une telle pratique obligatoire enfreint le volontariat, un pilier fondamental de la conciliation. Aussi, le tiers conciliateur, ayant une formation de haut niveau, représente une pièce maîtresse dans le processus de conciliation vu sa grande responsabilité dans le bon déroulement de cette méthode de résolution des conflits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, nous exploitons des propriétés déjà connues pour les systèmes de poids des représentations afin de les définir pour les orbites des groupes de Weyl des algèbres de Lie simples, traitées individuellement, et nous étendons certaines de ces propriétés aux orbites des groupes de Coxeter non cristallographiques. D'abord, nous considérons les points d'une orbite d'un groupe de Coxeter fini G comme les sommets d'un polytope (G-polytope) centré à l'origine d'un espace euclidien réel à n dimensions. Nous introduisons les produits et les puissances symétrisées de G-polytopes et nous en décrivons la décomposition en des sommes de G-polytopes. Plusieurs invariants des G-polytopes sont présentés. Ensuite, les orbites des groupes de Weyl des algèbres de Lie simples de tous types sont réduites en l'union d'orbites des groupes de Weyl des sous-algèbres réductives maximales de l'algèbre. Nous listons les matrices qui transforment les points des orbites de l'algèbre en des points des orbites des sous-algèbres pour tous les cas n<=8 ainsi que pour plusieurs séries infinies des paires d'algèbre-sous-algèbre. De nombreux exemples de règles de branchement sont présentés. Finalement, nous fournissons une nouvelle description, uniforme et complète, des centralisateurs des sous-groupes réguliers maximaux des groupes de Lie simples de tous types et de tous rangs. Nous présentons des formules explicites pour l'action de tels centralisateurs sur les représentations irréductibles des algèbres de Lie simples et montrons qu'elles peuvent être utilisées dans le calcul des règles de branchement impliquant ces sous-algèbres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traduction du titre en anglais: Making sense of governance in non-formal education : A critical analysis of the Senegalese faire faire strategy

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jouée par María Elena Velasco depuis la fin des années 1960, la India María met en scène une indienne « authentique » qui, malgré son statut et ses limitations sociales, dénonce le traitement des institutions auxquelles elle est soumise : les systèmes politique, judiciaire, économique et religieux. Néanmoins, lors des premières projections des films sur le grand écran, la critique portait essentiellement sur les aspects superficiels et a réprouvé la façon dont les indiens et le Mexique étaient représentés, car jugée réactionnaire. Au début des années 1990, des chercheurs ont commencé à étudier ses films en proposant une lecture « négociée » : ils s’intéressent à l’effet humoristique produit sur le public par sa performance et ses aventures, en même temps qu’ils reconnaissent l’ambigüité du personnage et des narrations, tout en soulignant les discours ethnique et de classe. À travers l’analyse de Tonta, tonta pero no tanto (Bête, bête, mais pas trop) de Fernando Cortés (1972), Ni de aquí ni de allá (Ni d’ici ni de là-bas) de María Elena Velasco (1988), et Sor Tequila (Sœur Tequila) de Rogelio González (1977), mon mémoire contribue à cette lecture en étudiant trois sujets : le stéréotype cristallisé dans ce personnage, afin de démontrer comment celui-ci permet une critique de la société mexicaine ; les nouveaux enjeux culturels auxquels le système néolibéral affronte les autochtones ; et la transformation du masculin et du public à travers une construction alternative du féminin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés intrinsèques, photophysiques, électrochimiques et cristallographiques des molécules fluorescentes 4,4'-bis(2-benzoxazolyle)stilbène (BBS) et 2,5-bis(5-tert-butyl-2-benzoxazolyle)thiophène (BBT) ont été étudiées en solution et dans les polymères semi-cristallins : poly(butylène succinate) (PBS) et polylactide (PLA). Les deux fluorophores sont caractérisés par de hauts rendements quantiques absolus de fluorescence. Toutefois, une désactivation de la fluorescence peut se produire par croisement intersystème vers l'état triplet pour le BBT, et par photoisomérisation trans-cis pour le BBS. La cinétique de ce dernier processus dépend de la concentration, résultant en un pur isomère cis photo-induit à faibles concentrations, qui est accompagné à des concentrations élevées par l'apparition d'un composé acide après photo-clivage suivi d'une oxydation. Cette étude a révélé des changements spectroscopiques prononcés suite à l’augmentation de la concentration des fluorophores, en particulier à l'état solide, spécifiques à l'agrégation des molécules à l'état fondamental pour le BBT et à la formation d’excimères pour le BBS, permettant ainsi de corréler les propriétés fluorescentes avec les caractéristiques du monocristal pour chaque fluorophore. En outre, le passage d’une dispersion moléculaire à une séparation de phases dans le cas du BBS est accompagné d'un changement de couleur du bleu au vert, qui est sensible à la déformation, à la température et au temps, affectant les rendements quantiques absolus de fluorescence et fournissant une large opportunité à la création d'une grande variété de polymères intelligents indicateurs capables d'auto-évaluation. D’autre part, la solubilité élevée du BBT dans les solvants courants, combinée à ses propriétés optoélectroniques élevées, en font un candidat en tant que référence universelle de fluorescence et matériau intelligent à la fois pour les études de polymères et en solution. Similairement aux mélanges comprenant des polymères miscibles, l'orientation du PBS augmente après ajout d'une molécule fluorescente, dont les monomères ont tendance à être orientés dans des films étirés, contrairement aux excimères ou agrégats.