942 resultados para categorization IT PFC computational neuroscience model HMAX
Resumo:
La collaboration est une compétence essentielle que les futurs médecins doivent développer. La détermination des niveaux de compétence est cruciale dans la planification de cet apprentissage. Les échelles descriptives suscitent un intérêt croissant, car elles décrivent en termes qualitatifs les performances attendues. Nous inspirant de la méthodologie mixte de Blais, Laurier, & Rousseau (2009), nous avons construit en cinq étapes une échelle de niveau de compétence de collaboration: 1) formulation d’une liste d’indicateurs situés à quatre niveaux de la formation médicale (préclinique, externat, résidence junior et sénior) par les chercheurs (n= 3) et un groupe d’éducateurs (n=7), leaders pédagogiques possédant une expertise pour la compétence de collaboration; 2) sondage en ligne comprenant quatre questionnaires portant sur les niveaux de 118 indicateurs, auprès d’enseignants cliniciens représentant les différentes spécialités (n=277); 3) analyse, avec le modèle partial credit de Rasch, des réponses aux questionnaires appariés par calibration concurrente; 4) détermination des niveaux des indicateurs par les éducateurs et les chercheurs; et 5) rédaction de l’échelle à partir des indicateurs de chaque niveau. L’analyse itérative des réponses montre une adéquation au modèle de Rasch et répartit les indicateurs sur l’échelle linéaire aux quatre niveaux. Les éducateurs déterminent le niveau des 111 indicateurs retenus en tenant compte des résultats du sondage et de la cohérence avec le curriculum. L’échelle comporte un paragraphe descriptif par niveau, selon trois capacités : 1) participer au fonctionnement d’une équipe; 2) prévenir et gérer les conflits; et 3) planifier, coordonner et dispenser les soins en équipe. Cette échelle rend explicites les comportements collaboratifs attendus à la fin de chaque niveau et est utile à la planification de l’apprentissage et de l’évaluation de cette compétence. La discordance entre les niveaux choisis par les éducateurs et ceux issus de l’analyse des réponses des enseignants cliniciens est principalement due au faible choix de réponse du niveau préclinique par les enseignants et aux problèmes d’adéquation pour les indicateurs décrivant la gestion des conflits. Cette recherche marque une avan- cée dans la compréhension de la compétence de collaboration et démontre l’efficacité de la méthodologie de Blais (2009) dans un contexte de compétence transversale, en sciences de la santé. Cette méthodologie pourrait aider à approfondir les trajectoires de développement d’autres compétences.
Resumo:
Ce mémoire porte sur l’étude du développement d’un sentiment d’appartenance à l’échelle d’un quartier dans un contexte de croissance de la mobilité des individus. À travers ce travail, il s’agit d’observer les formes que prend ce sentiment alors que les limites du territoire quotidien ne cessent d’être repoussées et que les individus sont de moins en moins ancrés de façon permanente sur un territoire. Dès lors, la pertinence du quartier est remise en cause. L’étude a pris pour cadre d’analyse l’arrondissement Plateau-Mont-Royal en raison de son caractère atypique et exemplaire en matière de forte mobilité de ses résidants et de la perception d’un sentiment d’appartenance territoriale marqué. Afin d’alimenter la réflexion, des entretiens ont été réalisés auprès de dix résidants de l’arrondissement recrutés lors d’un rendez-vous citoyen. Ces rencontres ont permis de comprendre que la mobilité des résidants ne répond pas à la tangente de la croissance observée. La flexibilité et la liberté d’avoir le choix de quitter son lieu de résidence sont des aptitudes valorisées, mais l’ancrage demeure prisé. Cette divergence s’inscrit dans une démarche particulière; celle de vivre selon un mode de vie où l’espace du quartier est priorisé à travers la mobilité quotidienne. Dans ce contexte, le sentiment d’appartenance se développe en direction d’un mode de vie, honorant un ensemble de valeurs, plutôt qu’à un territoire. Selon cette approche, l’arrondissement Plateau-Mont-Royal joue le second rôle; il représente le catalyseur et la vitrine de ce mode de vie, facilitant ainsi le regroupement des individus sous des valeurs communes.
Resumo:
L’objectif de cette recherche est de comparer deux modes d’intervention internationale (étatique et non-étatique) qui ont une optique de maintien ou de rétablissement de l’ordre et de la paix, de développement économique et social, pour des raisons humanitaires. De fait, la frontière est aujourd’hui floue entre les interventions étatiques et non-étatiques. Pour éviter une confusion conceptuelle, l’objet de l’étude est la comparaison de trois moments historiques d’intervention américaine en Haïti. L’étude se déroule en deux temps. D’abord elle servira à comprendre la logique d’action de l’État américain lors des interventions passées et présente afin de relever les objectifs implicites et explicites de ces interventions. Dans un deuxième temps elle se concentrera sur la biopolitique dans l’intervention humanitaire et l’application de la théorie de régulation du chaos. Celle-ci impliquant des conditions variées, elle propose un modèle théorique qui vise à comprendre l’intervention contemporaine en tant que nouveau cadre épistémique d’action politique, celle du ‘chaos régulé’ (‘Regulated Chaos’: McFalls, Pandolfi, Nguyen). Cette recherche transpose donc l’emphase sur la nécessité effective de l’intervention vers les propriétés de l’intervention. Elle est une tentative de comprendre les expériences sociales de pouvoir dans une zone humanitaire comme Port-au-Prince.
Resumo:
Les microARN (miARN) sont de petits ARN non-codants qui répriment la traduction de leurs gènes cibles par hybridation à leur ARN messager (ARNm). L'identification de cibles biologiquement actives de miARN est cruciale afin de mieux comprendre leurs rôles. Ce problème est cependant difficile parce que leurs sites ne sont définis que par sept nucléotides. Dans cette thèse je montre qu'il est possible de modéliser certains aspects des miARN afin d'identifier leurs cibles biologiquement actives à travers deux modélisations d'un aspect des miARN. La première modélisation s'intéresse aux aspects de la régulation des miARN par l'identification de boucles de régulation entre des miARN et des facteurs de transcription (FT). Cette modélisation a permis, notamment, d'identifier plus de 700 boucles de régulation miARN/FT, conservées entre l'humain et la souris. Les résultats de cette modélisation ont permis, en particulier, d'identifier deux boucles d'auto-régulation entre LMO2 et les miARN miR-223 et miR-363. Des expériences de transplantation de cellules souches hématopoïétiques et de progéniteurs hématopoïétiques ont ensuite permis d'assigner à ces deux miARN un rôle dans la détermination du destin cellulaire hématopoïétique. La deuxième modélisation s'intéresse directement aux interactions des miARN avec les ARNm afin de déterminer les cibles des miARN. Ces travaux ont permis la mise au point d'une méthode simple de prédiction de cibles de miARN dont les performances sont meilleures que les outils courant. Cette modélisation a aussi permis de mettre en lumière certaines conséquences insoupçonnées de l'effet des miARN, telle que la spécificité des cibles de miARN au contexte cellulaire et l'effet de saturation de certains ARNm par les miARN. Cette méthode peut également être utilisée pour identifier des ARNm dont la surexpression fait augmenter un autre ARNm par l'entremise de miARN partagés et dont les effets sur les ARNm non ciblés seraient minimaux.
Resumo:
Ce texte se veut un document de présentation visant familiariser les différents auteurs ayant participé à l’étude « Étude de faisabilité : Modèle de fournisseur de services de dépôt électronique », commandée par le Bureau du Registraire de la Cour suprême du Canada en septembre 2002 avec la notion de dépôt électronique telle qu’envisagée par le gouvernement canadien. Il fait l’état d’un modèle conceptuel de marché de fournisseur de services de dépôt électronique (FSDE) normatif géré par le secteur privé afin de fournir des services de dépôt électronique sûrs et peu coûteux aux praticiens du droit au Canada. Ce modèle envisagé par les responsables du projet pourra, grâce à l’utilisation de la norme juridique XML Court Filing 1.0, fournir une plate-forme commune de dépôt électronique et de gestion des documents offrant une interface avec les systèmes de gestion des instances et de gestion des documents de chaque tribunal. Ces travaux ne constituent pas pour autant un endossement du modèle FSDE, mais plutôt un engagement d’étudier de façon complète et systématique une solution de rechange au dépôt électronique afin d’améliorer notre connaissance collective dans ce domaine.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Integration of inputs by cortical neurons provides the basis for the complex information processing performed in the cerebral cortex. Here, we propose a new analytic framework for understanding integration within cortical neuronal receptive fields. Based on the synaptic organization of cortex, we argue that neuronal integration is a systems--level process better studied in terms of local cortical circuitry than at the level of single neurons, and we present a method for constructing self-contained modules which capture (nonlinear) local circuit interactions. In this framework, receptive field elements naturally have dual (rather than the traditional unitary influence since they drive both excitatory and inhibitory cortical neurons. This vector-based analysis, in contrast to scalarsapproaches, greatly simplifies integration by permitting linear summation of inputs from both "classical" and "extraclassical" receptive field regions. We illustrate this by explaining two complex visual cortical phenomena, which are incompatible with scalar notions of neuronal integration.
Resumo:
The Dirichlet family owes its privileged status within simplex distributions to easyness of interpretation and good mathematical properties. In particular, we recall fundamental properties for the analysis of compositional data such as closure under amalgamation and subcomposition. From a probabilistic point of view, it is characterised (uniquely) by a variety of independence relationships which makes it indisputably the reference model for expressing the non trivial idea of substantial independence for compositions. Indeed, its well known inadequacy as a general model for compositional data stems from such an independence structure together with the poorness of its parametrisation. In this paper a new class of distributions (called Flexible Dirichlet) capable of handling various dependence structures and containing the Dirichlet as a special case is presented. The new model exhibits a considerably richer parametrisation which, for example, allows to model the means and (part of) the variance-covariance matrix separately. Moreover, such a model preserves some good mathematical properties of the Dirichlet, i.e. closure under amalgamation and subcomposition with new parameters simply related to the parent composition parameters. Furthermore, the joint and conditional distributions of subcompositions and relative totals can be expressed as simple mixtures of two Flexible Dirichlet distributions. The basis generating the Flexible Dirichlet, though keeping compositional invariance, shows a dependence structure which allows various forms of partitional dependence to be contemplated by the model (e.g. non-neutrality, subcompositional dependence and subcompositional non-invariance), independence cases being identified by suitable parameter configurations. In particular, within this model substantial independence among subsets of components of the composition naturally occurs when the subsets have a Dirichlet distribution
Resumo:
Este estudio de caso busca realizar una descripción de la participación política de los jóvenes durante la campaña de Barack Obama a la presidencia, mediante el uso de herramientas de marketing online, identificando las herramientas de marketing y posteriormente, haciendo un exámen de cómo los jóvenes se apropiaron de las mismas para participar activamente. Así mismo, se plantea un modelo de análisis que permite comprender el proceso antes y durante el proceso participativo, con el fin de plasmar gráficamente las variables incluidas en el mismo.
Resumo:
Bay 9 are hoping to pioneer a way to encourage postgrads and staff in the lab to get over the fear of presenting their work to the group. The members of the bay will each give a 6m40s Pecha Kucha explaining their current research work through pictures. The topics of the pecha kuchas are: - Citizen Participation in News: An analysis of the landscape of online journalism (Jonny) - Argumentation on the Social Web (Tom) - From Narrative Systems to Ubiquitous Computing for Psychology - and everything in between (Charlie) - Is it worth sharing user model data? (Rikki)
Resumo:
Al hacer la evaluación de los resultados asociados con procesos de planeación estratégica y mercadeo en las empresas, la dirección enfrenta un cierto nivel de incertidumbre al no saber si estos planes afectaron positiva o negativamente la posición de la empresa en su entorno. El presente trabajo hace uso de una herramienta de simulación basada en agentes inteligentes para reducir el mencionado factor de incertidumbre, en este caso, para la empresa Corgranos S.A. Se espera modelar el comportamiento de los grupos poblacionales directa e indirectamente involucrados con la empresa para así afinar los esfuerzos que se efectúan sobre cada uno de ellos, siendo la diferencia entre las suposiciones iniciales y los resultados de la simulación el verdadero aporte del trabajo.
Resumo:
En este capítulo, los autores tratan de demostrar como los gobierno latinoamericanos, específicamente el peruano, evalúan los esfuerzos que realizan en la implementación de iniciativas de gobierno electrónico, identificando las expectativas que tienen los ciudadanos frente a estas iniciativas y como las perciben, aplicando un modelo de evaluación al servicio de pago electrónico de impuestos implementado como una iniciativa exitosa en Latinoamérica. El modelo propuesto fue desarrollado por uno de los autores como parte de su tesis doctoral y evaluado por el otro como jurado en el tribunal de la misma. Incluye cinco constructos latentes independientes, actitud, aptitud, confianza, relevancia y satisfacción que afecta a dos constructos latentes dependientes, la percepción y la expectativa frente a su relación con la administración pública vía el uso de las tecnologías de la información y las comunicaciones – TIC, bajo el efecto de variables ilustrativas relacionadas con los ciudadanos, las instituciones y el contexto.
Resumo:
El artículo busca encontrar evidencia empírica de los determinantes de la salud, como una medición de capital salud en un país en desarrollo después de una profunda reforma en el sector salud. Siguiendo el modelo de Grossman (1972) y tomando factores institucionales, además de las variables individuales y socioeconómicas. Se usaron las encuestas de 1997 y 2000 donde se responde subjetivamente sobre el estado de salud y tipo de afiliación al sistema de salud. El proceso de estimación usado es un probit ordenado. Los resultados muestran una importante conexión entre las variables individuales, institucionales y socioeconómicas con el estado de salud. El efecto de tipo de acceso al sistema de salud presiona las inequidades en salud.
Resumo:
El objetivo de esta tesis es mejorar la efectividad y eficiencia de los entornos de aprendizaje virtual. Para lograr este propósito se define un Modelo de Usuario que considera las características del usuario, el contexto y la Interacción. Estas tres dimensiones son integradas en un Modelo de Usuario Integral (MUI) para proveer adaptación de contenido, formato y actividades en entornos educativos con heterogeneidad de usuarios, tecnologías e interacciones. Esta heterogeneidad genera la entrega de contenidos, formatos y actividades inadecuadas para los estudiantes. La particularización del MUI en un entorno educativo es definida Modelo de Estudiante Integral (MEI). Las principales aportaciones de esta tesis son la definición y validación de un MUI, la utilización de un MEI abierto para propiciar la reflexión de los estudiantes sobre sus procesos de aprendizaje, la integración tecnológica con independencia de plataforma y la validación del MEI con estudiantes en escenarios reales.