298 resultados para Arbre de décision


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les résultats de recherches ont démontré que la cessation tabagique augmente là où des interventions professionnelles préventives sont appliquées avec constance. On rapporte qu’au Québec, 62 % des infirmières (toutes pratiques confondues) évaluent le statut tabagique de leurs clients et 38 % suggèrent la cessation tabagique. En milieu hospitalier, l’évaluation du statut tabagique diminue à 30 %. Or, le personnel infirmier hospitalier est présent dans les unités de soins 24 heures sur 24, ce qui laisse prévoir une influence potentielle non négligeable dans la décision des patients de cesser de fumer. Objectif : La présente recherche a pour objectif de comparer, avec un groupe contrôle, l’efficacité de stratégies (formation interactive, rappel, multiple) pour augmenter les interventions réalisées en cessation tabagique dans des unités dedecine et de chirurgie. Le choix de ces stratégies repose sur leur efficacité et leur potentiel d’implantation dans d’autres centres. Méthodologie : Un devis expérimental avec randomisation par groupe a été choisi. Le modèle factoriel permet d’évaluer l’effet de chacun des groupes expérimentaux en regard du groupe contrôle. Des mesures préstratégies et poststratégies (à 1 mois et à 3 mois) sont privilégiées. Plusieurs outils permettent de mesurer les effets des stratégies et ce, avec des sources diversifiées (personnel infirmier, patients, dossiers des patients, gestionnaires et responsables des centres d’abandon du tabac). Résultats : Au total, 156 infirmières et infirmières-auxiliaires ont répondu à des questionnaires au temps 1, 78 au temps 2 et 69 au temps 3. Parallèlement au personnel infirmier, 156 patients ont été rejoints au temps 1, 89 au temps 2 et 98 au temps 3. Les résultats démontrent que le personnel infirmier évalue le statut tabagique chez 35,7 % de la clientèle seulement et la motivation à cesser de fumer chez 17,6 % des patients. Au cours de notre recherche, peu d’interventions en cessation tabagique ont été réalisées dans les unités dedecine et de chirurgie; la présence de plusieurs obstacles de même qu’une perception d’inefficacité des interventions de la part du personnel infirmier semblent en être les causes. Les résultats de notre recherche ne nous a pas permis d’appuyer nos hypothèses. Cependant, des analyses complémentaires ont démontré que la stratégie de formation interactive a permis d’augmenter certaines pratiques cliniques à court terme et de diminuer la perception d’obstacles à l’intervention. Le rappel n’a pas fonctionné correctement et n’a pu être évalué. Conclusion : En considérant les résultats modestes des stratégies implantées, la formation interactive a eu un impact à très court terme sur les interventions courtes en cessation tabagique réalisées par le personnel infirmier d’unités de soins en médecine et en chirurgie. Les difficultés rencontrées lors de l’implantation des stratégies ont été expliquées, ce qui permettra une planification plus éclairée de futures recherches dans le domaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dévoilement de sa séropositivité représente une préoccupation quotidienne des femmes vivant avec le VIH, complexifié par la stigmatisation. L'état des connaissances demeure très fragmenté : les études révèlent des patterns (à qui les femmes dévoilent et à quelle fréquence), les raisons pour dévoiler ou non, les conséquences positives et négatives ainsi que les facteurs liés au dévoilement, limitant une compréhension globale du phénomène. Inspirée de la toile de fond de Parse (1998, 2003), cette présente étude visait à décrire et à mieux comprendre l'expérience du dévoilement, telle que perçue par des femmes vivant avec le VIH nées au Québec. La méthode phénoménologique a été privilégiée afin de recueillir des données auprès de sept participantes, par la tenue d’une entrevue semi structurée. L’analyse des données a reposé sur deux activités de recherche proposées par van Manen (1997), soit la réflexion et l’écriture, permettant d’identifier les sept thèmes suivants : 1) Se respecter tout en considérant les confidents ; 2) Ressentir l’appréhension; 3) Exercer un contrôle pour assurer une protection; 4) S’engager délibérément dans une démarche de révélation-dissimulation; 5) S’exposer au contexte social stigmatisant empreint d’exclusion; 6) Souffrir intérieurement; 7) Bénéficier des retombées positives de sa décision. Ces thèmes ont contribué à la formulation de l’essence du phénomène étudié soit : vivre l’ambivalence d’une démarche paradoxale de révélation-dissimulation, au cœur d’une souffrance profonde intensifiée par la stigmatisation, tout en s’enrichissant des bienfaits recueillis. Il est permis de croire que ces résultats puissent avoir des retombées positives pour guider la pratique infirmière autour du soutien aux femmes dans leur expérience de dévoilement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La guerre franco-prussienne (ou franco-allemande) de 1870-71 fut un conflit majeur dont l’issue changea considérablement l’équilibre des puissances en Europe avec notamment l’émergence de l’Empire allemand. Pourtant, elle a été oubliée. Bien que depuis la fin du XIXe siècle, elle fut largement traitée par l’historiographie, la question des responsabilités relativement à son déclenchement demeure un sujet de débat. Tandis que certains historiens estiment que cette guerre fut sciemment provoquée par Bismarck afin de parachever l’unification allemande, d’autres croient que la responsabilité est partagée et que ce conflit était tout simplement inévitable dans le contexte du refroidissement des rapports franco-allemands depuis la défaite autrichienne de Königgrätz (Sadowa). Le présent mémoire entend se dissocier de ces interprétations en jetant un nouveau regard sur le rôle joué par Bismarck lors des « préliminaires » (Vorgeschichte) de 1870. En s’appuyant sur des sources primaires ainsi que sur ce que les historiographies allemande, française et anglo-saxonne nous apprennent, il sera démontré premièrement que la candidature Hohenzollern pour le trône d’Espagne n’a pas été « fabriquée » volontairement par le chef de la diplomatie prussienne afin de compléter l’unification allemande, mais qu’elle fut promue d’abord et avant tout pour des considérations de prestige politique. Deuxièmement, la fameuse dépêche d’Ems modifiée par Bismarck ne peut être considérée comme l’élément déclencheur de ce conflit, car la décision d’aller en guerre fut prise à Paris avant que les effets de la dépêche ne se fassent sentir. Enfin, par son besoin d’un succès politico-diplomatique qui aurait consolidé le Second Empire en faisant oublier les reculades antérieures, par son refus de se satisfaire du retrait de la candidature Hohenzollern et par les erreurs de sa politique étrangère en général, la France a adopté une position belliqueuse et s’est retrouvée seule dans une guerre qu’elle n’avait su ni prévenir, ni préparer. L’enjeu à Paris n’était finalement pas le règlement pacifique des différends avec la Prusse, mais la pérennisation de la prépondérance française sur le continent européen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dès sa création en 1966, l’ERAP s’est fixé pour but d’accroître la production du pétrole « franc », en diversifiant ses sources d’approvisionnement. Un tel objectif prend une tournure cruciale dès lors que les rapports tendus entre le groupe français et les autorités algériennes semblent menacer ses acquis dans le Sahara. Toutefois, se tailler une place sur le marché mondial semble à cette époque une tâche ardue, voire improbable, puisque les espaces les plus pétrolifères sont déjà occupés par les grandes sociétés, dites Majors. Néanmoins, la société d’État française réussit à s’implanter dans plusieurs pays producteurs, dont l’Irak en 1968, jusqu’alors considéré comme la chasse gardée de la Compagnie française des pétroles (CFP). Aussi, l’expérience irakienne, suite à l’insuccès en Algérie, incite Elf ERAP à se concentrer dans les pays pétroliers de l’Afrique subsaharienne et en Mer du Nord. Le 3 février 1968, Elf ERAP signe un accord avec la compagnie d’État pétrolière, INOC, pour se charger de la prospection et de l’exploitation d’une partie du territoire confisqué par l’État irakien à la puissante Iraq Petroleum Company (IPC). En contrepartie de ses apports financiers et techniques, Elf ERAP sera rémunérée par un approvisionnement garanti en pétrole irakien : il s’agit d’un nouveau genre de partenariat, dit « contrat d’agence ». Ce dernier succède au système classique des concessions et vaut à la société d’État un franc succès dans son projet de pénétration au Moyen Orient. Très vite, les prospections donnent lieu à la découverte de gisements. La production démarre en 1976 et s’élève à 5 millions de tonnes en 1977. Dès lors, Elf ERAP, devenue la SNEA, peut envisager avec optimisme son avenir énergétique, puisque sa sécurité d’approvisionnement est, en partie, assurée par le marché irakien. Mais, contre toute attente, le groupe d’État français se retire de l’affaire en mai 1977, laissant place à l’INOC, qui prend en charge le projet deux ans avant la date prévue par le contrat initial de 1968. Ce sujet de recherche consiste à éclaircir le rôle d’opérateur joué par l’ERAP en Irak, entre 1968 et 1977. Pour tenter d’expliquer le départ prématuré d’Elf Irak, il nous faut identifier les facteurs endogènes et exogènes qui ont pu motiver une telle décision. Autrement dit, la société d’État aurait-elle subi les revers de ses propres choix énergétiques ou un tel dénouement serait-il imputable à la politique pétrolière irakienne? Quelles sont les implications de la conjoncture pétrolière internationale dans le cas d’un tel retrait? Aidée des archives historiques d’Elf et de TOTAL, nous sommes arrivée à la conclusion que la compression du marché pétrolier, entre distributeurs et producteurs, au cours des années 1970, a considérablement nui à la rentabilité des contrats intermédiaires du type agence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La téléréadaptation, tout comme d’autres champs en télésanté, est de plus en plus interpelée pour la prestation de services. Le but de ce projet de thèse est d’enrichir l’évaluation de la téléréadaptation afin que les connaissances qui en découlent puissent venir soutenir la prise de décision d’acteurs impliqués à différents niveaux en téléréadaptation. Le premier article présente une revue systématique dont l’objectif était de faire synthèse critique des études en téléréadaptation. La revue rassemble 28 études en téléréadaptation, qui confirment l’efficacité de la téléréadaptation pour diverses clientèles dans différents milieux. Certaines des études suggèrent également des bénéfices en termes de coûts, mais ces résultats demeurent préliminaires. Cette synthèse critique est utile pour soutenir la décision d’introduire la téléréadaptation pour combler un besoin. Par contre, les décideurs bénéficieraient aussi de connaissances par rapport aux changements cliniques et organisationnels qui sont associés à la téléréadaptation lorsqu’elle est introduite en milieu clinique. Les deux autres articles traitent d’une étude de cas unique qui a examiné un projet clinique de téléréadaptation dans l’est de la province de Québec, au Canada. Le cadre conceptuel qui sous-tend l’étude de cas découle de la théorie de structuration de Giddens et des modèles de structuration de la technologie, en particulier de l’interaction entre la structure, l’agent et la technologie. Les données ont été recueillies à partir de plusieurs sources (groupes de discussion, entrevues individuelles, documents officiels et observation d’enregistrements) suivi d’une analyse qualitative. Le deuxième article de la thèse porte sur le lien entre la structure, l’agent et la culture organisationnelle dans l’utilisation de la téléréadaptation. Les résultats indiquent que les différences de culture organisationnelle entre les milieux sont plus évidentes avec l’utilisation de la téléréadaptation, entraînant des situations de conflits ainsi que des occasions de changement. De plus, la culture organisationnelle joue un rôle au niveau des croyances liées à la technologie. Les résultats indiquent aussi que la téléréadaptation pourrait contribuer à changer les cultures organisationnelles. Le troisième article examine l’intégration de la téléréadaptation dans les pratiques cliniques existantes, ainsi que les nouvelles routines cliniques qu’elle permet de soutenir et la pérennisation de la téléréadaptation. Les résultats indiquent qu’il y a effectivement certaines activités de téléréadaptation qui se sont intégrées aux routines des intervenants, principalement pour les plans d’intervention interdisciplinaire, tandis que pour les consultations et le suivi des patients, l’utilisation de la téléréadaptation n’a pas été intégrée aux routines. Plusieurs facteurs en lien avec la structure et l’agent ont contraint et facilité l’intégration aux routines cliniques, dont les croyances partagées, la visibilité de la téléréadaptation, le leadership clinique et organisationnel, la disponibilité des ressources, et l’existence de liens de collaboration. La pérennité de la téléréadaptation a aussi pu être observée à partir de la généralisation des activités et le développement de nouvelles applications et collaborations en téléréadaptation, et ce, uniquement pour les activités qui s’étaient intégrées aux routines des intervenants. Les résultats démontrent donc que lorsque la téléréadaptation n’est pas intégrée aux routines cliniques, elle n’est pas utilisée. Par contre, la téléréadaptation peut démontrée certains signes de pérennité lorsque les activités, qui sont reproduites, deviennent intégrées aux routines quotidiennes des utilisateurs. Ensemble, ces études font ressortir des résultats utiles pour la mise en place de la téléréadaptation et permettent de dégager des pistes pour enrichir le champ de l’évaluation de la téléréadaptation, afin que celui-ci devienne plus pertinent et complet, et puisse mieux soutenir les prises de décision d’acteurs impliqués à différents niveaux en téléréadaptation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation de l'expérience comme un mode de détermination des faits, c'est-à-dire comme un élément qui comble les lacunes dans l'ensemble des éléments de preuve dans le procès civil, est un thème quelque peu tabou. La doctrine est souvent basée sur la prémisse voulant que le décideur rende une décision uniquement en vertu des éléments de preuve et qu'il doit absolument s'abstenir d'insérer aux constatations quoi que ce soit qui n'est pas présent dans les éléments de preuve. Cette vision est éloignée de la réalité juridique. Dans la première partie, nous allons aborder les principes procéduraux qui empêchent l'utilisation de l'expérience comme mode de détermination des faits. Ce sont le principe de la reconstruction de l'événement du passé, le principe de l'abstraction des connaissances acquises hors du procès et le principe de l'exclusion de la preuve par ouï-dire. Ensuite, nous portons notre attention sur les différents types d'expérience, c'est-à-dire l'expérience profane, divisible en bon sens et sens commun, et l'expérience scientifique, ainsi sur leurs modes de fonctionnement dans le procès civil. La première partie se termine par une brève confrontation des différents types d'expérience avec les principes procéduraux. La deuxième partie est consacré à l'analyse de l'expérience dans trois instruments juridiques: la connaissance d'office, la présomption de fait et le témoignage d'expert. Nous nous intéressons principalement à vérifier si l'expérience fonctionne à l'intérieur de ces instruments juridiques comme mode de détermination des faits et ensuite quelles sont les limites que le droit pose à l'expérience dans ce rôle. L'analyse va confirmer que le principal instrument par lequel l'expérience comme mode de détermination des faits pénètre dans le procès civil est la présomption de fait.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation focuses on military cooperation between the United States and its special allies. It argues that alliance expectations determine the level of military cooperation, while two intervening variables - the level of government cohesion and military capabilities - determine its implementation. This study also shows how secondary states deploy strategies to overcome power asymmetries through bilateral concessions, international organizations and by appealing to principle. The focus of the research is on special allies, as they have the most to gain or lose by going along with American plans. My contention is that secondary allies can rarely influence the dominant ally decisively, but they can act autonomously and resist to pressures exerted by the stronger alliance partner. The argument builds on three central claims. First, power asymmetries between allies translate into different assessments of international threats. Second, when disagreements over threats arise, the outcome of intra-alliance bargaining is not necessarily dictated by the preferences of the stronger power. Third, secondary states, as opposed to the dominant partner, face unique constraints when facing major foreign policy decisions, i.e. they face a trade-off between establishing a credible reputation as an alliance partner in a politically feasible way while minimizing domestic audience costs. To examine the theoretical puzzle presented by asymmetric military cooperation, I introduce a causal explanation that builds on neoclassical realism, to zone in on the interaction between systemic and domestic variables. My research makes a contribution to alliance theory and foreign policy decision-making by studying how special allies respond to American decisions in times of threat and how systemic constraints are channeled through state-level variables. To investigate the causal link between threat perception, alliance expectations and domestic constraints, this study relies on the method of structured focused comparison with three detailed case studies. The focus is on the initial decision made by special allies regarding whether or not to participle in joint mobilization with the United States. The decision-making process is presented from the perspective of secondary allied states and measures the explanatory factors that motivated the decision on military cooperation. The case studies are the UK, Canada and Australia’s response to the war in Afghanistan and the war in Iraq during the period of 2001 to 2003.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Français] Une fraction importante des génomes eucaryotes est constituée de Gènes Répétés en Tandem (GRT). Un mécanisme fondamental dans l’évolution des GRT est la recombinaison inégale durant la méiose, entrainant la duplication locale (en tandem) de segments chromosomiques contenant un ou plusieurs gènes adjacents. Différents algorithmes ont été proposés pour inférer une histoire de duplication en tandem pour un cluster de GRT. Cependant, leur utilisation est limitée dans la pratique, car ils ne tiennent pas compte d’autres événements évolutifs pourtant fréquents, comme les inversions, les duplications inversées et les délétions. Cette thèse propose différentes approches algorithmiques permettant d’intégrer ces événements dans le modèle de duplication en tandem classique. Nos contributions sont les suivantes: • Intégrer les inversions dans un modèle de duplication en tandem simple (duplication d’un gène à la fois) et proposer un algorithme exact permettant de calculer le nombre minimal d’inversions s’étant produites dans l’évolution d’un cluster de GRT. • Généraliser ce modèle pour l’étude d’un ensemble de clusters orthologues dans plusieurs espèces. • Proposer un algorithme permettant d’inférer l’histoire évolutive d’un cluster de GRT en tenant compte des duplications en tandem, duplications inversées, inversions et délétions de segments chromosomiques contenant un ou plusieurs gènes adjacents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation des services de santé est au centre de l’organisation des soins. La compréhension des processus qui déterminent cette utilisation est essentielle pour agir sur le système de santé et faire en sorte qu’il réponde mieux aux besoins de la population. L’objectif de cette thèse est de comprendre le phénomène complexe qu’est l’utilisation des services de santé en s’intéressant à la pratique des médecins omnipraticiens. En nous appuyant sur le cadre théorique de Donabedian, nous décomposons les déterminants de l’utilisation des services de santé en trois niveaux : le niveau individuel, le niveau organisationnel, et le niveau environnemental. Pour tenir compte de la complexité des phénomènes de cette étude nous proposons de nous appuyer sur l’approche configurationnelle. Notre question de recherche est la suivante : dans quelle mesure le mode d’exercice des omnipraticiens influence-t-il la prestation des services et comment l’environnement géographique et la patientèle modulent-ils cette relation ? Nous avons utilisé des bases de données jumelées du Collège des médecins du Québec, de la Régie d’assurance maladie du Québec et de la banque de données iCLSC. Notre échantillon est constitué des médecins omnipraticiens de l’année 2002, ayant satisfait aux critères d’inclusion, ce qui représente près de 70% de la population totale. Des analyses de correspondances multiples et des classifications ascendantes hiérarchiques ont été utilisées pour réaliser la taxonomie des modes d’exercice et des contextes géographiques. Nous avons construit des indicateurs d’utilisation des services de santé pour apprécier la continuité, la globalité, l’accessibilité et la productivité. Ces indicateurs ont été validés en les comparant à ceux d’une enquête populationnelle. Nous présentons tout d’abord les modes d’exercice des médecins qui sont au nombre de sept. Deux modes d’exercice à lieu unique ont émergé : le mode d’exercice en cabinet privé d'une part, caractérisé par des niveaux de continuité et productivité élevés, le mode d’exercice en CLSC d'autre part présentant un niveau de productivité faible et des niveaux de globalité et d'accessibilité légèrement au-dessus de la moyenne. Dans les cinq autres modes d’exercice, les médecins exercent leur pratique dans une configuration de lieux. Deux modes d’exercice multi-institutionnel réunissent des médecins qui partagent leur temps entre les urgences, les centres hospitaliers et le cabinet privé ou le CLSC. Les médecins de ces deux groupes présentent des niveaux d’accessibilité et de productivité très élevés. Le mode d’exercice le moins actif réunit des médecins travaillant en cabinet privé et en CHLSD. Leur niveau d’activité est inférieur à la moyenne. Ils sont caractérisés par un niveau de continuité très élevé. Le mode d’exercice ambulatoire regroupe des médecins qui partagent leur pratique entre le CLSC, le cabinet privé et le CHLSD. Ces médecins présentent des résultats faibles sur tous les indicateurs. Finalement le mode d’exercice hospitaliste réunit des médecins dont la majorité de la pratique s’exerce en milieu hospitalier avec une petite composante en cabinet privé. Dans ce mode d’exercice tous les indicateurs sont faibles. Les analyses ont mis en évidence quatre groupes de territoires de CSSS : les ruraux, les semi-urbains, les urbains et les métropolitains. La prévalence des modes d’exercice varie selon les contextes. En milieu rural, le multi-institutionnel attire près d’un tiers des médecins. En milieu semi-urbain, les médecins se retrouvent de façon plus prédominante dans les modes d’exercice ayant une composante CLSC. En milieu urbain, les modes d’exercice ayant une composante cabinet privé attirent plus dedecins. En milieu métropolitain, les modes d’exercice moins actif et hospitaliste attirent près de 40% des médecins. Les omnipraticiens se répartissent presque également dans les autres modes d’exercice. Les niveaux des indicateurs varient en fonction de l’environnement géographique. Ainsi l’accessibilité augmente avec le niveau de ruralité. De façon inverse, la productivité augmente avec le niveau d’urbanité. La continuité des soins est plus élevée en régions métropolitaines et rurales. La globalité varie peu d’un contexte à l’autre. Pour pallier à la carence de l’analyse partielle de l’organisation de la pratique des médecins dans la littérature, nous avons créé le concept de mode d’exercice comme la configuration de lieux professionnels de pratique propre à chaque médecin. A notre connaissance, il n’existe pas dans la littérature, d’étude qui ait analysé simultanément quatre indicateurs de l’utilisation des services pour évaluer la prestation des services médicaux, comme nous l’avons fait. Les résultats de nos analyses montrent qu’il existe une différence dans la prestation des services selon le mode d’exercice. Certains des résultats trouvés sont documentés dans la littérature et plus particulièrement quand il s’agit de mode d’exercice à lieu unique. La continuité et la globalité des soins semblent évoluer dans le même sens. De même, la productivité et l’accessibilité sont corrélées positivement. Cependant il existe une tension, entre les premiers indicateurs et les seconds. Seuls les modes d’exercice à lieu unique déjouent l’arbitrage entre les indicateurs, énoncé dans l’état des connaissances. Aucun mode d’exercice ne présente de niveaux élevés pour les quatre indicateurs. Il est donc nécessaire de travailler sur des combinaisons de modes d’exercice, sur des territoires, afin d’offrir à la population les services nécessaires pour l’atteinte concomitante des quatre objectifs de prestation des services. Les modes d’exercice émergents (qui attirent les jeunes médecins) et les modes d’exercice en voie de disparition (où la prévalence des médecins les plus âgés est la plus grande) sont préoccupants. A noter que les modes d’exercice amenés à disparaître répondent mieux aux besoins de santé de la population que les modes d’exercice émergents, au regard de tous nos indicateurs. En conclusion, cette thèse présente trois contributions théoriques et trois contributions méthodologiques. Les implications pour les recherches futures et la décision indiquent que, si aucune mesure n’est mise en place pour renverser la tendance, le Québec risque de vivre des pénuries dans la prestation des services en termes de continuité, globalité et accessibilité.