958 resultados para second-order model
Resumo:
In this thesis, stepwise titration with hydrochloric acid was used to obtain chemical reactivities and dissolution rates of ground limestones and dolostones of varying geological backgrounds (sedimentary, metamorphic or magmatic). Two different ways of conducting the calculations were used: 1) a first order mathematical model was used to calculate extrapolated initial reactivities (and dissolution rates) at pH 4, and 2) a second order mathematical model was used to acquire integrated mean specific chemical reaction constants (and dissolution rates) at pH 5. The calculations of the reactivities and dissolution rates were based on rate of change of pH and particle size distributions of the sample powders obtained by laser diffraction. The initial dissolution rates at pH 4 were repeatedly higher than previously reported literature values, whereas the dissolution rates at pH 5 were consistent with former observations. Reactivities and dissolution rates varied substantially for dolostones, whereas for limestones and calcareous rocks, the variation can be primarily explained by relatively large sample standard deviations. A list of the dolostone samples in a decreasing order of initial reactivity at pH 4 is: 1) metamorphic dolostones with calcite/dolomite ratio higher than about 6% 2) sedimentary dolostones without calcite 3) metamorphic dolostones with calcite/dolomite ratio lower than about 6% The reactivities and dissolution rates were accompanied by a wide range of experimental techniques to characterise the samples, to reveal how different rocks changed during the dissolution process, and to find out which factors had an influence on their chemical reactivities. An emphasis was put on chemical and morphological changes taking place at the surfaces of the particles via X-ray Photoelectron Spectroscopy (XPS) and Scanning Electron Microscopy (SEM). Supporting chemical information was obtained with X-Ray Fluorescence (XRF) measurements of the samples, and Inductively Coupled Plasma-Mass Spectrometry (ICP-MS) and Inductively Coupled Plasma-Optical Emission Spectrometry (ICP-OES) measurements of the solutions used in the reactivity experiments. Information on mineral (modal) compositions and their occurrence was provided by X-Ray Diffraction (XRD), Energy Dispersive X-ray analysis (EDX) and studying thin sections with a petrographic microscope. BET (Brunauer, Emmet, Teller) surface areas were determined from nitrogen physisorption data. Factors increasing chemical reactivity of dolostones and calcareous rocks were found to be sedimentary origin, higher calcite concentration and smaller quartz concentration. Also, it is assumed that finer grain size and larger BET surface areas increase the reactivity although no certain correlation was found in this thesis. Atomic concentrations did not correlate with the reactivities. Sedimentary dolostones, unlike metamorphic ones, were found to have porous surface structures after dissolution. In addition, conventional (XPS) and synchrotron based (HRXPS) X-ray Photoelectron Spectroscopy were used to study bonding environments on calcite and dolomite surfaces. Both samples are insulators, which is why neutralisation measures such as electron flood gun and a conductive mask were used. Surface core level shifts of 0.7 ± 0.1 eV for Ca 2p spectrum of calcite and 0.75 ± 0.05 eV for Mg 2p and Ca 3s spectra of dolomite were obtained. Some satellite features of Ca 2p, C 1s and O 1s spectra have been suggested to be bulk plasmons. The origin of carbide bonds was suggested to be beam assisted interaction with hydrocarbons found on the surface. The results presented in this thesis are of particular importance for choosing raw materials for wet Flue Gas Desulphurisation (FGD) and construction industry. Wet FGD benefits from high reactivity, whereas construction industry can take advantage of slow reactivity of carbonate rocks often used in the facades of fine buildings. Information on chemical bonding environments may help to create more accurate models for water-rock interactions of carbonates.
Resumo:
The objective of this study was to evaluate the effect of the addition of oatmeal and palm fat in the elaboration of biscuits with added L-leucine and calcium in order to develop a product for sarcopenia in the elderly. The biscuits, or cookies, were elaborated applying a central composite rotational design with surface response methodology, and the significant linear, quadratic and interaction terms were used in the second order mathematical model. Physical, physicochemical and sensory analyses were performed by a trained panel. Based on the best results obtained, three cookie formulations were selected for sensory evaluation by the target group and physicochemical determinations. The formulations with the highest sensory scores for appearance and texture and medium scores for color and expansion index were selected. The addition of calcium and leucine increased significantly the concentration of these components in the biscuits elaborated resulting in a cookie with more than 30% of DRI (Dietary Reference Intake) for calcium and leucine. The formulations selected showed high acceptance by the target group; therefore, they can be included in the diet of elderly with sarcopenia as a functional food.
Resumo:
Three studies comprised the current research program, in which the major goals were to propose and validate empirically the proposed two-level (universal and culture-specific) model of both autonomy and relatedness, as well as to develop reliable and valid measures for these two constructs. In Study 1, 143 mainland Chinese adolescents were asked open-ended questions about their understanding of autonomy and relatedness in three social contexts (peer, family, school). Chinese youth’s responses captured universal and culturally distinctive forms of autonomy (personal vs. social) and relatedness (accommodation vs. distinctiveness), according to a priori criteria based on the theoretical frameworks. Also, scenarios designed to reflect culture-specific forms of autonomy and relatedness suggested their relevance to Chinese adolescents. With a second sample of 201 mainland Chinese youth, in Study 2, the obtained autonomy and relatedness descriptors were formulated into scale items. Those items were subject to refinement analyses to examine their psychometric properties and centrality to Chinese youth. The findings of Study 1 scenarios were replicated in Study 2. The primary goal of Study 3 was to test empirically the proposed two-level (universal and culture-specific) models of both autonomy and relatedness, using the measures derived from Studies 1 and 2. A third sample of 465 mainland Chinese youth completed a questionnaire booklet consisting of autonomy and relatedness scales and scenarios and achievement motivation orientations measures. A series of confirmatory factor analysis (CFA) autonomy and relatedness measurement models (first-order and second-order), as well as structural models linking culture-specific forms of autonomy and relatedness and achievement motivation orientations, were conducted. The first-order measurement models based on scale and scenario scores consistently confirmed the distinction between personal autonomy and social autonomy, and that of accommodation and distinctiveness. Although the construct validity of the two culture-specific forms of autonomy gained additional support from the structural models, the associations between the two culture-specific forms of relatedness and achievement motivation orientations were relatively weak. In general, the two-level models of autonomy and relatedness were supported in two ways: conceptual analysis of scale items and second-order measurement models. In addition, across the three studies, I explored potential contextual and sex differences in Chinese youth’s endorsement of the diverse forms of autonomy and relatedness. Overall, no substantial contextual variability or sex differences were found. The current research makes an important theoretical contribution to the field of developmental psychology in general, and autonomy and relatedness in particular, by proposing and testing empirically both universal and culture-specific parts of autonomy and relatedness. The current findings have implications for the measurement of autonomy and relatedness across social contexts, as well as for socialization and education practice.
Resumo:
This paper studies Tobin's proposition that inflation "greases" the wheels of the labor market. The analysis is carried out using a simple dynamic stochastic general equilibrium model with asymmetric wage adjustment costs. Optimal inflation is determined by a benevolent government that maximizes the households' welfare. The Simulated Method of Moments is used to estimate the nonlinear model based on its second-order approximation. Econometric results indicate that nominal wages are downwardly rigid and that the optimal level of grease inflation for the U.S. economy is about 1.2 percent per year, with a 95% confidence interval ranging from 0.2 to 1.6 percent.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
Malgré la préoccupation croissante des chercheurs et praticiens pour la santé psychologique au travail, le concept de bien-être vécu au travail est encore mal compris de la communauté scientifique. En effet, peu d’efforts ont été consacrés à ce jour pour développer des connaissances sur le bien-être psychologique au travail arrimées à la réalité des employés. Cette thèse a donc pour objectif de développer une conceptualisation du bien-être psychologique au travail et une instrumentation psychométriquement fiable lui étant rattachée. Pour ce faire, deux études ont été réalisées. La première, de nature qualitative et exploratoire, fut menée auprès de 20 travailleurs canadiens francophones afin de répertorier, à partir d’incidents critiques vécus par ceux-ci, des manifestations de bien-être psychologique au travail. Celles-ci ont pu être classifiées selon un modèle en 2 axes, soit la sphère de référence dans laquelle le bien-être psychologique au travail se vit et la directionnalité selon laquelle il se développe. Ce modèle a ensuite été comparé aux conceptualisations génériques du bien-être psychologique existantes, et cette analyse a permis d’étayer la validité convergente et divergente du modèle. Dans un deuxième temps, l’Indice de bien-être psychologique au travail (IBEPT) a été créé sur la base des manifestations relevées lors de l’étude qualitative, afin d’en assurer la validité de contenu. Une version expérimentale de l’instrument a ensuite été soumise à une expérimentation auprès de 1080 travailleurs québécois. Les analyses factorielles exploratoires révèlent une structure interne en 25 items reflétant 5 dimensions, représentant elles-mêmes un construit de second ordre. La validité de construit de cette conceptualisation a ensuite été étudiée par l’analyse des intercorrélations avec une série de mesures du bien-être et de la détresse psychologique génériques. Les résultats appuient la validité convergente de l’instrument, et démontrent également sa validité divergente. Enfin, l’instrument affiche une cohérence interne satisfaisante. Au terme de cette recherche doctorale, les résultats des deux études sont interprétés en fonction de l’état actuel des connaissances sur le bien-être psychologique, les limites des études sont énoncées, et des pistes de recherche future sont avancées.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
La présente thèse de doctorat porte sur la relation entre la santé psychologique au travail, les besoins fondamentaux et la compétence en emploi. En plus de valider un questionnaire de compétences en emploi (QCE), cette thèse propose que les compétences en emploi puissent prédire la santé psychologique au travail par la satisfaction des besoins fondamentaux dans le domaine de l’enseignement. Le premier article a pour objectif de présenter la conception et la validation de l’instrument de mesure des compétences en emploi dans le domaine de l’enseignement. Une première étape dans notre étude a permis l’identification de trois solutions factorielles possibles : structure à un seul facteur, structure à deux facteurs et structure à un facteur de deuxième ordre. Les matrices des corrélations des énoncés étaient fiables, se prêtaient bien à l’analyse factorielle exploratoire et présentaient de bonnes cohérences internes. La deuxième étape de notre étude a été de type confirmatif. Chacune des trois solutions factorielles proposées a été analysée, ce qui a permis l’identification du modèle le mieux ajusté compte tenu des seuils empiriques des indices retenus pour l’analyse par équations structurelles. L’étude réalisée sur un échantillon d’enseignants québécois démontre que nous pouvons conclure aux bonnes qualités psychométriques de l’instrument analysé. Les limites et les apports de cette étude seront aussi présentés. Le deuxième article examine les liens entre les compétences en emploi dans le domaine de l’enseignement, la santé psychologique au travail et la satisfaction des trois besoins fondamentaux (autonomie, compétence et affiliation). Un modèle de médiation est testé par des analyses de modélisation par équations structurelles. Dans ce modèle, on considère que la satisfaction des trois besoins fondamentaux (autonomie, compétence et affiliation sociale) agisse comme médiateur dans la relation entre les compétences en emploi et la santé psychologique au travail. Une relation de médiation partielle (Baron & Kenny, 1986) a été trouvée dans notre échantillon, en utilisant l’analyse de rééchantillonnage par « bootstrap », dans le cadre de la modélisation par équations structurelles. Les limites de la recherche, ainsi que des suggestions de recherches futures seront proposées.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Cette étude vise à tester la pertinence des images RSO - de moyenne et de haute résolution - à la caractérisation des types d’occupation du sol en milieu urbain. Elle s’est basée sur des approches texturales à partir des statistiques de deuxième ordre. Plus spécifiquement, on recherche les paramètres de texture les plus pertinents pour discriminer les objets urbains. Il a été utilisé à cet égard des images Radarsat-1 en mode fin en polarisation HH et Radarsat-2 en mode fin en double et quadruple polarisation et en mode ultrafin en polarisation HH. Les occupations du sol recherchées étaient le bâti dense, le bâti de densité moyenne, le bâti de densité faible, le bâti industriel et institutionnel, la végétation de faible densité, la végétation dense et l’eau. Les neuf paramètres de textures analysés ont été regroupés, en familles selon leur définition mathématique. Les paramètres de ressemblance/dissemblance regroupent l’Homogénéité, le Contraste, la Similarité et la Dissimilarité. Les paramètres de désordre sont l’Entropie et le Deuxième Moment Angulaire. L’Écart-Type et la Corrélation sont des paramètres de dispersion et la Moyenne est une famille à part. Il ressort des expériences que certaines combinaisons de paramètres de texture provenant de familles différentes utilisés dans les classifications donnent de très bons résultants alors que d’autres associations de paramètres de texture de définition mathématiques proches génèrent de moins bons résultats. Par ailleurs on constate que si l’utilisation de plusieurs paramètres de texture améliore les classifications, la performance de celle-ci plafonne à partir de trois paramètres. Malgré la bonne performance de cette approche basée sur la complémentarité des paramètres de texture, des erreurs systématiques dues aux effets cardinaux subsistent sur les classifications. Pour pallier à ce problème, il a été développé un modèle de compensation radiométrique basé sur la section efficace radar (SER). Une simulation radar à partir du modèle numérique de surface du milieu a permis d'extraire les zones de rétrodiffusion des bâtis et d'analyser les rétrodiffusions correspondantes. Une règle de compensation des effets cardinaux fondée uniquement sur les réponses des objets en fonction de leur orientation par rapport au plan d'illumination par le faisceau du radar a été mise au point. Des applications de cet algorithme sur des images RADARSAT-1 et RADARSAT-2 en polarisations HH, HV, VH, et VV ont permis de réaliser de considérables gains et d’éliminer l’essentiel des erreurs de classification dues aux effets cardinaux.
Resumo:
Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.
Resumo:
La santé au travail a été reconnue comme un élément important du développement économique mondial à long terme. Cependant, les projections statistiques laissent poindre des préoccupations sur deux plans : la main d’œuvre vieillit et leur bien-être psychologique se détériore. Pour pallier ses problématiques, des leaders forts sont recherchés pour cultiver des climats de confiance de même que veiller au bien-être de leurs collaborateurs. Cette thèse a pour objet d’étudier les liens entre le leadership authentique (LA), le climat de travail et le bien-être des personnes. Pour y parvenir, deux recherches ont été réalisées. La première étude visait à se doter d’un instrument de mesure de LA en français. Le « Authentic Leadership Questionnaire » a été traduit et validé. Les résultats des analyses factorielles confirmatoires effectuées sur deux échantillons de travailleurs québécois (N = 365, N = 859) ont montré que c’est une structure de deuxième ordre avec les quatre facteurs associés au LA qui offre le meilleur ajustement aux données. Le LA a ensuite été mis en lien avec des corrélats (authenticité du leader, bien-être psychologique du leader, bien-être psychologique des subordonnés, confiance et justice interpersonnelle). Toutes les hypothèses ont été soutenues à l’exception d’une, soit celle liant le LA autorapporté par le leader et son bien-être psychologique. La deuxième étude a testé un modèle de médiation où le climat de travail a été postulé comme médiateur de la relation entre le LA et le bien-être des travailleurs. Un devis non expérimental avec six mois entre les passations a été utilisé. Quatre cent six (406) infirmières et infirmiers ont rempli des questionnaires mesurant le LA et le climat perçus au travail, et six mois plus tard, une mesure de bien-être psychologique au travail. Les résultats découlant d’une analyse de médiation par la technique de « boostrapping » ont révélé que le LA est associé au bien-être des subordonnés par l’entremise d’un climat de travail positif qu’il contribue à favoriser. Au terme de cette recherche doctorale, on commente les résultats, expose les principaux apports, présente des retombées pratiques, discute des limites et propose des pistes de recherche future.
Resumo:
L’objectif de ce mémoire est d’identifier la nature des changements des politiques sociales adoptés entre 1988 et 1998 en Suède et ainsi de mieux comprendre l’état actuel du modèle suédois, caractérisé dans la littérature par l’institutionnalisation des valeurs d’égalité sociale et d’universalisme. À l’aide d’une grille d’analyse inférée à partir de la typologie des changements de politiques publiques de Peter Hall, l’auteure pose l’hypothèse selon laquelle un changement de paradigme est survenu dans les secteurs de l’éducation obligatoire et de la santé. À l’issue de cette étude, il est démontré que, si le paradigme a effectivement été contesté au cours de la période de réforme étudiée, il est toujours en vigueur à la fin des années 1990. Toutefois, l’effet cumulé des changements d’instruments l’ont miné peu à peu durant les décennies suivantes. Les conséquences de ces changements, devenues des « anomalies », menacent aujourd’hui l’existence du modèle suédois.
Resumo:
Ce mémoire est consacré à l’approche hiérarchique de Frankfurt, laquelle donne une explication de l’action autonome grâce à son modèle théorique à deux niveaux de désirs. Pour Frankfurt, l’action autonome est une action causée ou guidée par un désir qui est lui-même causé ou guidé par un désir de deuxième niveau, lequel est formé par un processus d’identification qui fait l’évaluation du désir de premier niveau. Dans un premier temps, j’étudie le développement de l’approche de Frankfurt afin de démontrer que celle-ci subit une modification essentielle : Frankfurt donne d’abord une explication causale de l’action autonome pour ensuite lui donner une explication structurale. Dans un deuxième temps, je m’arrête sur les différentes versions d’une critique adressée à son approche, la critique féministe de l’autonomie du processus d’identification. Dans un troisième temps, je présente une défense de l’approche de Frankfurt à l’égard de cette critique. Cette défense est fondée sur une interprétation du processus d’identification : je soutiens, à l’aide des développements du premier chapitre, que l’évaluation consiste en une évaluation de la conformité d’un désir à l’égard d’un modèle motivationnel, et que cette interprétation permet de répondre à la critique féministe précédemment traitée.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.