510 resultados para Systèmes d’aide à la décision--Conception


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif. Les jeunes crossover sont définis comme des adolescents qui sont à la fois victimes de maltraitance et délinquants juvéniles. L'objectif de ce mémoire est d’examiner les relations entre les paramètres de la maltraitance (ex., récurrence, sous-types et variété) et les paramètres de la délinquance juvénile (ex., précocité, volume, variété, gravité moyenne et présence de sous-types) vécus par les jeunes crossover. Méthodes. La source des données est constituée de rapports officiels pour tous les adolescents et adolescentes québécois qui ont plaidé coupables ou ont été reconnus coupables d'un crime entre le 1e janvier 2005 et le 31 décembre 2010. D'abord, un portrait des jeunes crossover québécois est dressé à l’aide de statistiques descriptives. Ensuite, des analyses multivariées sont utilisées pour déterminer si les paramètres de la maltraitance prédisent les différentes dimensions de la délinquance et pour examiner les différences selon le sexe. Résultats. La délinquance des jeunes crossover est plus importante que celle des délinquants non-maltraités. Les expériences différentielles de la maltraitance sont liées à des paramètres hétérogènes de la délinquance juvénile. La récurrence de la maltraitance est un prédicteur important des paramètres de la délinquance ultérieure. De plus, la maltraitance est particulièrement influente sur la délinquance des garçons. Implications. Les interventions au sein des systèmes de la protection de la jeunesse et de la justice juvénile doivent être adaptées afin d'identifier les jeunes à risque de délinquance grave, de cibler les dimensions spécifiques de la maltraitance et d’entraver leurs liens à la délinquance ultérieure. L'intervention doit être privilégiée pour les victimes de multiples incidents de maltraitance et pour les garçons victimes de maltraitance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation de nanovecteurs pour la livraison contrôlée de principes actifs est un concept commun de nous jours. Les systèmes de livraison actuels présentent encore cependant des limites au niveau du taux de relargage des principes actifs ainsi que de la stabilité des transporteurs. Les systèmes composés à la fois de nanovecteurs (liposomes, microgels et nanogels) et d’hydrogels peuvent cependant permettre de résoudre ces problèmes. Dans cette étude, nous avons développé un système de livraison contrôlé se basant sur l’incorporation d’un nanovecteur dans une matrice hydrogel dans le but de combler les lacunes des systèmes se basant sur un vecteur uniquement. Une telle combinaison pourrait permettre un contrôle accru du relargage par stabilisation réciproque. Plus spécifiquement, nous avons développé un hydrogel structuré intégrant des liposomes, microgels et nanogels séparément chargés en principes actifs modèles potentiellement relargués de manière contrôlé. Ce contrôle a été obtenu par la modification de différents paramètres tels que la température ainsi que la composition et la concentration en nanovecteurs. Nous avons comparé la capacité de chargement et la cinétique de relargage de la sulforhodamine B et de la rhodamine 6G en utilisant des liposomes de DOPC et DPPC à différents ratios, des nanogels de chitosan/acide hyaluronique et des microgels de N-isopropylacrylamide (NIPAM) à différents ratios d’acide méthacrylique, incorporés dans un hydrogel modèle d’acrylamide. Les liposomes présentaient des capacités de chargement modérés avec un relargage prolongé sur plus de dix jours alors que les nanogels présentaient des capacités de chargement plus élevées mais une cinétique de relargage plus rapide avec un épuisement de la cargaison en deux jours. Comparativement, les microgels relarguaient complétement leur contenu en un jour. Malgré une cinétique de relargage plus rapide, les microgels ont démontré la possibilité de contrôler finement le chargement en principe actif. Ce contrôle peut être atteint par la modification des propriétés structurelles ou en changeant le milieu d’incubation, comme l’a montré la corrélation avec les isothermes de Langmuir. Chaque système développé a démontré un potentiel contrôle du taux de relargage, ce qui en fait des candidats pour des investigations futures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’introduction du développement durable apporte de nouvelles préoccupations environnementales au niveau de la construction et de la rénovation résidentielles, une industrie qui représente un marché économique important au Canada. En plus d’engendrer plusieurs impacts sur l’environnement, la conception actuelle ne permet pas d’accommoder le changement initié par l’évolution des pratiques, les avancées technologiques, mais également par l’évolution des patrons de vie des occupants. Dans un premier temps, la revue de littérature dresse le portrait de l’industrie de la construction, rénovation et démolition (CRD) au Canada, ainsi que le profil de gestion des débris de CRD. Ensuite, une analyse documentaire traite de différents outils de conception développés pour améliorer la performance du secteur : 3RV-E, écoconception, écoconstruction et LEED®. De plus, la recension des écrits permet également de cerner les concepts d’adaptabilité et de flexibilité au niveau du bâtiment et dans les approches et mouvements émergents en architecture. Cette démarche nous amène à établir l’hypothèse que l’intégration des critères d’adaptabilité et de flexibilité au niveau du logement aurait pour effet d’améliorer l’adéquation entre les besoins évolutifs des occupants et les nouvelles considérations environnementales. Au niveau méthodologique, l’analyse du cycle de vie simplifiée par l’Eco-indicator99 encadre l’analyse environnementale de l’ossature de trois types de construction de cloison. De cette évaluation, on conclut que c’est la construction traditionnelle à ossature de bois qui produit le moins d’impacts. Dans l’ordre suivant la proposition de construction de cloison à ossature d’aluminium, plus adaptable et flexible, et finalement la construction à ossature d’acier qui est le système le plus dommageable. Par contre, en intégrant le facteur temporel, cette analyse démontre que l’intégration de l’adaptabilité et de la flexibilité procure plusieurs cycles de vie et de rénovation au produit et à ses composantes. Finalement, ces concepts offrent également le potentiel de diminuer les impacts générés par la construction et la rénovation, un constat qui mériterait d’être abordé dans une approche plus systémique.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Dans ce texte, nous analysons la mise en place d’un système de vélos partagés à Trois-Rivières initié par un organisme faisant de la participation citoyenne son principe fondamental d’action. Cette analyse montre comment l’atteinte des objectifs poursuivis par l’adhésion à ce principe participatif, outre le respect de l’expérience du citoyen dans le développement de son milieu de vie, peut poser problème. La similarité entre le système de vélos conçu avec la participation des citoyens et les systèmes offerts par les groupes industriels met en question la capacité du principe de la participation à produire des solutions alternatives. La difficulté relèverait de la volonté de faire des méthodes participatives un principe nécessaire à la réalisation des idéaux démocratiques des sociétés libérales modernes. Promulguer l’obéissance à des procédures d’action communes, pour elles-mêmes, nous éloigne d’une conception libérale de la démocratie qui s’attache d’abord à l’efficacité de l’action, donc à la qualité de ce qu’elle produit, indépendamment des moyens mis en œuvre.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La thèse a pour objectif d’étudier l’influence du financement des soins de santé sur la performance des systèmes de soins compte tenu des caractéristiques organisationnelles sanitaires des systèmes. Elle s’articule autour des trois objectifs suivants : 1) caractériser le financement des soins de santé à travers les différents modèles émergeant des pays à revenu élevé ; 2) apprécier la performance des systèmes de soins en établissant les divers profils apparaissant dans ces mêmes pays ; 3) examiner le lien entre le financement et la performance en tenant compte du pouvoir modérateur du contexte organisationnel des soins. Inspirée du processus de circulation de l’argent dans le système de soins, l’approche a d’abord consisté à classer les pays étudiés – par une analyse configurationnelle opérationnalisée par les analyses de correspondance multiples (ACM) et de classification hiérarchique ascendante (CHA) – dans des modèles types, chacun représentant une configuration particulière de processus de financement des soins de santé (article 1). Appliquée aux données recueillies auprès des 27 pays de l’OCDE à revenu élevé via les rapports Health Care in Transition des systèmes de santé des pays produits par le bureau Européen de l’OMS, la banque de données Eco-Santé OCDE 2007 et les statistiques de l’OMS 2008, les analyses ont révélé cinq modèles de financement. Ils se distinguent selon les fonctions de collecte de l’argent dans le système (prélèvement), de mise en commun de l’argent collecté (stockage), de la répartition de l’argent collecté et stocké (allocation) et du processus de paiement des professionnels et des établissements de santé (paiement). Les modèles ainsi développés, qui vont au-delà du processus unique de collecte de l’argent, donnent un portrait plus complet du processus de financement des soins de santé. Ils permettent ainsi une compréhension de la cohérence interne existant entre les fonctions du financement lors d’un éventuel changement de mode de financement dans un pays. Dans un deuxième temps, nous appuyant sur une conception multidimensionnelle de la performance des systèmes, nous avons classé les pays : premièrement, selon leur niveau en termes de ressources mobilisées, de services produits et de résultats de santé atteints (définissant la performance absolue) ; deuxièmement, selon les efforts qu’ils fournissent pour atteindre un niveau élevé de résultats de santé proportionnellement aux ressources mobilisées et aux services produits en termes d’efficience, d’efficacité et de productivité (définissant ainsi la performance relative) ; et troisièmement, selon les profils types de performance globale émergeant en tenant compte simultanément des niveaux de performance absolue et relative (article 2). Les analyses effectuées sur les données collectées auprès des mêmes 27 pays précédents ont dégagé quatre profils de performance qui se différencient selon leur niveau de performance multidimensionnelle et globale. Les résultats ainsi obtenus permettent d’effectuer une comparaison entre les niveaux globaux de performance des systèmes de soins. Pour terminer, afin de répondre à la question de savoir quel mode – ou quels modes – de financement générerait de meilleurs résultats de performance, et ce, dans quel contexte organisationnel de soins, une analyse plus fine des relations entre le financement et la performance (tous définis comme précédemment) compte tenu des caractéristiques organisationnelles sanitaires a été réalisée (article 3). Les résultats montrent qu’il n’existe presque aucune relation directe entre le financement et la performance. Toutefois, lorsque le financement interagit avec le contexte organisationnel sanitaire pour appréhender le niveau de performance des systèmes, des relations pertinentes et révélatrices apparaissent. Ainsi, certains modes de financement semblent plus attrayants que d’autres en termes de performance dans des contextes organisationnels sanitaires différents. Les résultats permettent ainsi à tous les acteurs du système de comprendre qu’il n’existe qu’une influence indirecte du financement de la santé sur la performance des systèmes de soins due à l’interaction du financement avec le contexte organisationnel sanitaire. L’une des originalités de cette thèse tient au fait que très peu de travaux ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de financement et de performance avant d’analyser les associations susceptibles d’exister entre eux. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au coeur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le financement et le contexte organisationnel sanitaire sur la performance des systèmes de soins.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.