999 resultados para Linear Dimensions.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un nombre significatif d’enfants autistes ont une macrocéphalie. Malgré plusieurs études du périmètre crânien en autisme, peu d’études ont été faites sur des adultes. Aussi, les références actuelles en périmètre crânien (PC) adulte datent d’environ 20 ans. Les objectifs de cette étude étaient de construire une échelle de référence du PC adulte, et de comparer les taux de macrocéphalie entre un groupe d’adultes autistes et un groupe d’adultes neurotypiques. Dans cette étude, 221 sujets masculins adultes étaient recrutés de différents milieux afin de déterminer le meilleur modèle prédictif du PC et de construire l’échelle de référence. La hauteur et le poids étaient mesurés pour chaque participant afin de déterminer leur influence sur les dimensions crâniennes. Pour la partie comparative, 30 autistes et 36 sujets neurotypiques, tous adultes, étaient recrutés à partir de la base de données du laboratoire de recherche. Pour l’échelle de référence, les résultats démontraient des corrélations positives entre le PC avec la hauteur et le poids. Après analyse, la corrélation conjointe de la hauteur et du poids sur le PC a été déterminée comme étant le modèle qui offre les résultats les plus significatifs dans la prédiction du PC. Pour la partie comparative, les taux de macrocéphalie atteignaient 10,00% chez les autistes contre 2,56% chez les neurotypiques selon la formule de régression linéaire obtenue du modèle. Cependant le test d’exactitude de Fisher n’a révélé aucune différence significative entre les 2 groupes. Mes résultats suggèrent qu’il est nécessaire de considérer la hauteur et le poids en construisant une référence du PC et que, même en utilisant la nouvelle référence, les taux de macrocéphalie demeurent plus élevés chez les autistes adultes que chez les adultes neurotypiques en dépit de l’absence de différences significatives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse avait pour objectif d’examiner les liens longitudinaux entre les relations d’amitié et l’évolution des comportements d’agressivité physique en début de scolarisation. Guidé par les principes énoncés par les théoriciens de l’apprentissage social, de l’attachement, du développement de la personnalité et de la théorie du jugement moral, le rôle principal et modérateur de certaines dimensions spécifiques à la qualité de la relation d’amitié, ainsi que des attributs comportementaux des amis et des caractéristiques personnelles de l’enfant a été évalué. Des données provenant de l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ), de l’Étude des Jumeaux nouveau-nés du Québec (EJNQ) et de l’évaluation des effets d’un programme d’intervention dyadique ont été analysées. Les mesures utilisées dans cette thèse ont été collectées entre la maternelle et la 2e année du primaire, soit de 5 à 8 ans, directement auprès des enfants, de leurs amis, leurs pairs, leurs parents et leurs enseignants par le biais de questionnaires, d’entrevues sociométriques et de mises en situation hypothétiques. En lien avec la perspective de l’apprentissage social, les résultats ont montré que l’association à des amis agressifs en maternelle est liée à une augmentation des comportements d’agressivité physique chez l’enfant. Cependant, en lien avec les théories du développement de la personnalité et la perspective de l’attachement, le fait d’établir une relation d’amitié de bonne qualité est reliée à une diminution des comportements agressifs à travers le temps. De plus, une interaction entre la qualité de la relation et les attributs comportementaux des amis a indiqué que le risque lié à l’association à des amis agressifs est atténué dans le contexte d’une relation d’amitié de bonne qualité. Les résultats indiquent également que chez les garçons, la présence de conflits entre amis à la maternelle est associée de façon linéaire à de plus hauts niveaux de comportements agressifs, indépendamment du risque génétique de l’enfant face à cette problématique. Une interaction triple a par ailleurs révélé que le conflit n’était pas lié à une augmentation de l’agressivité physique dans le contexte d’une relation d’amitié caractérisée par l’affect positif et une bonne capacité à régler les conflits. Enfin, les résultats ont montré un effet indirect d’une intervention dyadique sur la diminution des comportements d’agressivité physique, qui opère à travers l’amélioration de la capacité des amis à régler leurs conflits. Ces résultats appuient le rôle bénéfique de la qualité de la relation d’amitié sur l’évolution des manifestations de comportements d’agressivité physique et suggèrent que cet aspect relationnel soit pris en compte dans les programmes de prévention des conduites agressives. En somme, la mise en évidence d’associations et d’interactions significatives entre la qualité des relations d’amitié, les attributs comportementaux des amis et les manifestations de comportements d’agressivité physique en début de scolarisation suggère que certains aspects et dimensions relationnelles positives peuvent être bénéfiques au développement des enfants agressifs. La prévention du maintien et de l’aggravation des conduites agressives par l’entremise de l’amélioration de la qualité des relations d’amitié représente une avenue prometteuse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse examine le rythme veille-sommeil et son association avec l’instabilité émotionnelle, l’agressivité et l’impulsivité dans le trouble de personnalité limite (TPL) à l’adolescence. Dans un premier temps, la revue de la littérature sur les perturbations objectives du sommeil dans le TPL a mis en lumière plusieurs difficultés similaires, évaluées par polysomnographie, à celles observées dans la dépression adulte. De 1980 à 2010, aucune recherche n’a examiné le rythme veille-sommeil, aucune n’a étudié les adolescents TPL et plusieurs n’ont pas contrôlé l’état dépressif comme facteur de confusion. De ce constat, il s’avérait pertinent de mener une étude sur le rythme veille-sommeil dans le TPL à l’adolescence en l’absence de dépression co-occurrente. L’adolescence comportant plusieurs caractéristiques physiologiques, psychologiques et sociales, tenir compte des aspects développementaux était essentiel. Dans un second temps, un protocole de recherche fût mis en place à la Clinique des troubles de l’humeur et le recrutement a été réalisé auprès d’adolescents souffrant d’un TPL et sans état dépressif actuel. Ils devaient porter pendant plus de neuf jours (période comprenant deux fins de semaine) un actigraphe, appareil non invasif évaluant l’alternance veille-sommeil dans l’environnement naturel. L’abandon précoce au traitement étant prévalent chez les patients TPL, la fiabilité de l’étude a été examinée afin de déterminer les raisons favorisant et celles nuisant au recrutement et à la collecte des données. La réflexion sur les aspects méthodologiques de l’étude actigraphique a permis d’expliquer les limites de ce type de protocole. Dans un troisième temps, le rythme veille-sommeil des adolescents TPL (n=18) a été caractérisé et comparé à celui des jeunes ayant un trouble bipolaire (n=6), trouble psychiatrique partageant plusieurs manifestations communes avec le TPL, et à celui des adolescents sans trouble de santé mentale (n=20). Les résultats suggèrent que l’adolescent TPL passe plus de temps en éveil durant la période de repos que les jeunes appartenant aux deux autres groupes. De plus, les adolescents TPL présentent une plus grande variabilité inter journalière des heures de lever et du temps total de sommeil que les autres adolescents. Ils se réveillent une heure de plus, et dorment donc une heure supplémentaire, que les adolescents sans trouble mental lors des journées sans routine. Dans un quatrième temps, les analyses corrélationnelles entre les données actigraphiques et les scores aux questionnaires auto-rapportés évaluant l’instabilité émotionnelle, l’agressivité et l’impulsivité suggèrent que plus l’adolescent TPL passe du temps éveillé alors qu’il est au lit, plus il déclare présenter des comportements agressifs, surtout physiques, durant le jour. En résumé, cette thèse contribue à la littérature scientifique en explorant pour la première fois le rythme veille-sommeil et son lien avec les manifestations symptomatiques dans le TPL à l’adolescence. Les résultats suggèrent fortement l’importance d’évaluer et de traiter les problèmes du rythme veille-sommeil que présentent ces jeunes lors de la prise en charge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fonction paternelle d’ouverture sur le monde (FPOM) est un concept récent dans le domaine de la recherche sur l’engagement paternel. Les liens entre les pratiques parentales et les représentations mentales qui sont associées à cette forme d’engagement paternel, les comportements et le développement des enfants sont peu connus. Cette étude transversale avait pour objet l’atteinte de deux objectifs, d’abord vérifier les liens prédictifs entre les dimensions de la FPOM, le sentiment de compétence parentale (SCP) des pères et la qualité de la relation d’attachement père-enfant. Ensuite, examiner le rôle potentiellement modérateur du SCP des pères sur les liens significatifs entre les dimensions de la FPOM et la qualité de la relation d’attachement père-enfant. Les données proviennent d’un échantillon de 200 pères québécois francophones ayant répondu à un questionnaire autorévélé. Leur enfant était âgé entre 5 et 13 ans (1ere à 6e année du primaire). Des modèles de régression linéaire hiérarchique ont été utilisés pour vérifier l’influence de l’effet modérateur. Les résultats montrent des corrélations positives significatives entre les dimensions « stimulation à la persévérance » et « discipline et enseignement des responsabilités » de la FPOM et la qualité de la relation d’attachement père-enfant. Les dimensions de la stimulation à la prise de risque et à la compétition de la FPOM ne sont pas corrélées à la qualité de la relation d’attachement père-enfant. Contrairement aux résultats attendus, le SCP des pères n’a pas d’effet modérateur sur les liens significatifs obtenus, mais plutôt un effet additif se traduisant par la présence de relations transactionnelles entre les variables. Des analyses complémentaires révèlent un effet modérateur marginalement significatif du SCP des pères sur le lien entre la stimulation à la persévérance de la FPOM et l’échelle « plaisir et sécurité » du questionnaire sur la qualité de la relation d’attachement père-enfant (QQRAPE). La propension des pères à stimuler leur enfant à persévérer émerge plus particulièrement lors d’activités ludiques et elle contribue au développement du sentiment de confiance et de sécurité personnelle de leur enfant. Ces résultats sont discutés en regard de la littérature actuelle afin de mieux comprendre les liens entre les variables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objet de cette thèse est l’élaboration d’un modèle logique de mesure du maintien des valeurs, ainsi que son opérationnalisation afin d’entreprendre l’évaluation de la performance des systèmes de santé. Le maintien des valeurs est l’une des quatre fonctions de la théorie de l’action sociale de T.Parsons permettant d’analyser les systèmes d’action. Les autres fonctions sont l’adaptation, la production et l’atteinte des buts. Cette théorie est la base du modèle EGIPSS (évaluation globale et intégrée de la performance des systèmes de santé), dans lequel cette thèse s’insère. La fonction étudiée correspond, dans l’oeuvre de T.Parsons, au sous-système culturel. Elle renvoie à l’intangible, soit à l’univers symbolique par lequel l’action prend son sens et les fonctions du système s’articulent. Le modèle logique de mesure du maintien des valeurs est structuré autour de deux concepts principaux, les valeurs individuelles et organisationnelles et la qualité de vie au travail. À travers les valeurs individuelles et organisationnelles, nous mesurons la hiérarchie et l’intensité des valeurs, ainsi que le niveau de concordance interindividuelle et le degré de congruence entre les valeurs individuelles et organisationnelles. La qualité de vie au travail est composée de plusieurs concepts permettant d’analyser et d’évaluer l’environnement de travail, le climat organisationnel, la satisfaction au travail, les réactions comportementales et l’état de santé des employés. La mesure de ces différents aspects a donné lieu à la conception de trois questionnaires et de trente indicateurs. Ma thèse présente, donc, chacun des concepts sélectionnés et leurs articulations, ainsi que les outils de mesure qui ont été construits afin d’évaluer la dimension du maintien des valeurs. Enfin, nous exposons un exemple d’opérationnalisation de ce modèle de mesure appliqué à deux hôpitaux dans la province du Mato Grosso du Sud au Brésil. Cette thèse se conclut par une réflexion sur l’utilisation de l’évaluation comme outil de gestion soutenant l’amélioration de la performance et l’imputabilité. Ce projet comportait un double enjeu. Tout d’abord, la conceptualisation de la dimension du maintien des valeurs à partir d’une littérature abondante, mais manquant d’intégration théorique, puis la création d’outils de mesure permettant de saisir autant les aspects objectifs que subjectifs des valeurs et de la qualité de vie au travail. En effet, on trouve dans la littérature de nombreuses disciplines et de multiples courants théoriques tels que la psychologie industrielle et organisationnelle, la sociologie, les sciences infirmières, les théories sur le comportement organisationnel, la théorie des organisations, qui ont conçu des modèles pour analyser et comprendre les perceptions, les attitudes et les comportements humains dans les organisations. Ainsi, l’intérêt scientifique de ce projet découle de la création d’un modèle dynamique et intégrateur offrant une synthèse des différents champs théoriques abordant la question de l’interaction entre les perceptions individuelles et collectives au travail, les conditions objectives de travail et leurs influences sur les attitudes et les comportements au travail. D’autre part, ce projet revêt un intérêt opérationnel puisqu’il vise à fournir aux décideurs du système de santé des connaissances et données concernant un aspect de la performance fortement négligé par la plupart des modèles internationaux d’évaluation de la performance.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-­T9, T11-­T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des études récentes suggèrent que le perfectionnisme est un phénomène multidimensionnel avec des composantes néfastes, mais aussi des éléments positifs, au bien-être psychosocial. Une étude a été élaborée afin de comparer la prévalence de ces éléments chez les garçons et les filles surdoués. Quarante-neuf enfants âgés de 7 à 11 ans ont rapporté leurs attitudes perfectionnistes, appartenant à deux dimensions du phénomène : le perfectionnisme orienté ver soi et le perfectionnisme socialement prescrit. Contrairement à nos attentes, les résultats révèlent que la prévalence des deux dimensions de perfectionnisme ne diffère pas de manière significative entre les filles et les garçons surdoués. Une analyse des résultats et de leurs implications pour de futures recherches est offerte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.