956 resultados para Mathematical Techniques--Error Analysis
Resumo:
The simultaneous determination of cobalt and nickel is a classical analytical problem. A great number of reagents associated with several techniques of analysis have been applied to achieve this determination. In this review 117 references, which appeared between 1996-1980, are described and classified according to the technique applied.
Resumo:
Public opinion surveys have become progressively incorporated into systems of official statistics. Surveys of the economic climate are usually qualitative because they collect opinions of businesspeople and/or experts about the long-term indicators described by a number of variables. In such cases the responses are expressed in ordinal numbers, that is, the respondents verbally report, for example, whether during a given trimester the sales or the new orders have increased, decreased or remained the same as in the previous trimester. These data allow to calculate the percent of respondents in the total population (results are extrapolated), who select every one of the three options. Data are often presented in the form of an index calculated as the difference between the percent of those who claim that a given variable has improved in value and of those who claim that it has deteriorated.
Resumo:
The layered precursor of MCM-22 was prepared with different Si/Al ratios: 15, 25, 50, 100 and ¥. Upon heat treatment these precursors form MCM-22 zeolite. Both layered precursor and MCM-22 zeolite were characterized by several techniques: Chemical Analysis by Atomic Absorption Spectroscopy (AAS), X-Ray Diffraction (XRD), Thermo-gravimetric Analysis (TGA), Pore Analysis by N2 and Ar adsorption, Scanning Electron Microscopy (SEM), Infrared Spectroscopy (IR) and Temperature Programmed Desorption of ammonium (TPD).
Resumo:
The present contribution describes three different modern experiments for possible adoption in undergraduate organic chemistry laboratories. These are: 1. electrocatalytic hydrogenation of benzaldehyde to benzyl alcohol; 2. identification of three volatile components, obtained from pineapple fruit, by mass spectrometry and 3. microwave mediated fast synthesis of N-(p-chlorophenyl)phthalamic acid from phthalic anhydride and p-chloroaniline under solvent-free conditions. The experiments can be executed in a short period of time, putting the undergraduate student in contact with a variety of topics in organic chemistry and several techniques of analysis, showing multidisciplinarity in organic chemistry.
Resumo:
The constant evolution of science and the growing demand for new technologies have led to new techniques in instrumentation that can improve detection, separation, resolution, and peak capacity. Comprehensive two-dimensional liquid chromatography (LC×LC) is presented as a powerful tool in complex sample analyses. During an analysis, a sample is subjected to two independent separation mechanisms that are combined, resulting in increased resolving power. For appropriate application of LC×LC, understanding the influence of parameters that require optimization is necessary. The main purpose of optimization is to predict the combination of stationary phases, separation conditions, and instrumental requirements to obtain the best separation performance. This review discusses theoretical, intrumental, and chemometric aspects of LC×LC and focuses on its applications in foods. It aims to provide a clear understanding of the aspects that can be used as strategies in the optimization of this analytical method.
Resumo:
According to the working memory model, the phonological loop is the component of working memory specialized in processing and manipulating limited amounts of speech-based information. The Children's Test of Nonword Repetition (CNRep) is a suitable measure of phonological short-term memory for English-speaking children, which was validated by the Brazilian Children's Test of Pseudoword Repetition (BCPR) as a Portuguese-language version. The objectives of the present study were: i) to investigate developmental aspects of the phonological memory processing by error analysis in the nonword repetition task, and ii) to examine phoneme (substitution, omission and addition) and order (migration) errors made in the BCPR by 180 normal Brazilian children of both sexes aged 4-10, from preschool to 4th grade. The dominant error was substitution [F(3,525) = 180.47; P < 0.0001]. The performance was age-related [F(4,175) = 14.53; P < 0.0001]. The length effect, i.e., more errors in long than in short items, was observed [F(3,519) = 108.36; P < 0.0001]. In 5-syllable pseudowords, errors occurred mainly in the middle of the stimuli, before the syllabic stress [F(4,16) = 6.03; P = 0.003]; substitutions appeared more at the end of the stimuli, after the stress [F(12,48) = 2.27; P = 0.02]. In conclusion, the BCPR error analysis supports the idea that phonological loop capacity is relatively constant during development, although school learning increases the efficiency of this system. Moreover, there are indications that long-term memory contributes to holding memory trace. The findings were discussed in terms of distinctiveness, clustering and redintegration hypotheses.
Resumo:
In the field of molecular biology, scientists adopted for decades a reductionist perspective in their inquiries, being predominantly concerned with the intricate mechanistic details of subcellular regulatory systems. However, integrative thinking was still applied at a smaller scale in molecular biology to understand the underlying processes of cellular behaviour for at least half a century. It was not until the genomic revolution at the end of the previous century that we required model building to account for systemic properties of cellular activity. Our system-level understanding of cellular function is to this day hindered by drastic limitations in our capability of predicting cellular behaviour to reflect system dynamics and system structures. To this end, systems biology aims for a system-level understanding of functional intraand inter-cellular activity. Modern biology brings about a high volume of data, whose comprehension we cannot even aim for in the absence of computational support. Computational modelling, hence, bridges modern biology to computer science, enabling a number of assets, which prove to be invaluable in the analysis of complex biological systems, such as: a rigorous characterization of the system structure, simulation techniques, perturbations analysis, etc. Computational biomodels augmented in size considerably in the past years, major contributions being made towards the simulation and analysis of large-scale models, starting with signalling pathways and culminating with whole-cell models, tissue-level models, organ models and full-scale patient models. The simulation and analysis of models of such complexity very often requires, in fact, the integration of various sub-models, entwined at different levels of resolution and whose organization spans over several levels of hierarchy. This thesis revolves around the concept of quantitative model refinement in relation to the process of model building in computational systems biology. The thesis proposes a sound computational framework for the stepwise augmentation of a biomodel. One starts with an abstract, high-level representation of a biological phenomenon, which is materialised into an initial model that is validated against a set of existing data. Consequently, the model is refined to include more details regarding its species and/or reactions. The framework is employed in the development of two models, one for the heat shock response in eukaryotes and the second for the ErbB signalling pathway. The thesis spans over several formalisms used in computational systems biology, inherently quantitative: reaction-network models, rule-based models and Petri net models, as well as a recent formalism intrinsically qualitative: reaction systems. The choice of modelling formalism is, however, determined by the nature of the question the modeler aims to answer. Quantitative model refinement turns out to be not only essential in the model development cycle, but also beneficial for the compilation of large-scale models, whose development requires the integration of several sub-models across various levels of resolution and underlying formal representations.
Resumo:
Résumé L’hypothèse de la période critique, émise par Lenneberg dans les années 60, affirmait qu’un enfant pouvait acquérir une langue seconde, sans difficulté, environ jusqu’à l’âge de la puberté. Après cette période, l’apprentissage d’un autre idiome serait difficile, dû à la latéralisation du cerveau. En même temps, les travaux de Chomsky enrichirent cette théorie avec l’idée de la Grammaire universelle, laquelle établit que nous possédons tous, dès la naissance, les éléments linguistiques universels qui nous permettent d’acquérir une langue maternelle. Tant que la Grammaire universelle est active, notre langue maternelle se développe et c’est pourquoi, si nous apprenons une autre langue pendant cette période, l’acquisition de celle-ci se produit de manière presque naturelle. Pour cette raison, plus une langue est apprise tôt, plus elle sera maîtrisée avec succès. En nous appuyant sur ce cadre théorique ainsi que sur l’Analyse d’erreurs, outil qui permet au professeur de prédire quelques erreurs avec la finalité de créer des stratégies d’apprentissage d’une langue seconde, nous tenterons de vérifier dans le présent travail si l’âge est un facteur qui influence positivement ou négativement l’apprentissage d’une langue seconde, l’espagnol dans ce cas-ci, par le biais de l’analyse comparative des prépositions a/ en dans deux groupes d’étudiants différents.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Ce projet de maîtrise se consacre à l’apprentissage des prépositions espagnoles chez les élèves francophones. L’identification et l’analyse des erreurs les plus fréquentes dans l’usage des prépositions par des francophones nous permettrons d’élaborer des exercices pratiques qui rendraient leur apprentissage moins difficile. Nous croyons que la difficulté dans l’utilisation des prépositions chez les étudiants réside en partie dans le fait de ne pas connaître leur emploi exact. Nous commencerons donc par présenter l’emploi des principales prépositions en espagnol à partir du Manual de la Nueva gramática de la lengua española et d’autres études. L’enseignement de la grammaire dans les cours d’espagnol comme langue étrangère (ELE) au Québec suit les règles établies par le Cadre européen commun et le Plan curricular de l’Institut Cervantès. Les étudiants développent leur compétence grammaticale de manière inductive; ils sont amenés à comprendre les règles par eux-mêmes et à créer leurs propres hypothèses qu’ils confirment ou réfutent après grâce à quelques explications formelles de l’enseignant et des exercices de pratique. Par contre, cette tendance à laisser l’apprentissage de la grammaire entre les mains des étudiants peut aussi amener à la fossilisation de leurs erreurs si les explications et la pratique ne sont pas suffisantes. Les erreurs sont perçues comme un point de départ pour comprendre où résident les difficultés des étudiants et permettent aux enseignants d’apporter les changements nécessaires à leurs méthodes d’enseignement. Notre révision de quelques investigations réalisées avec la méthode de l’analyse des erreurs, nous permet de cerner les raisons pour lesquelles les francophones commettent autant d’erreurs dans l’utilisation des prépositions espagnoles. Notre analyse de l’enseignement et de la pratique des prépositions dans trois manuels qui s’utilisent actuellement dans les cégeps et les universités du Québec nous permet de voir que les prépositions ne se pratiquent pas assez, surtout au niveau intermédiaire. Nous proposons donc des exercices pratiques qui permettront aux étudiants de pratiquer les prépositions de manière plus efficace.
Resumo:
Les familles d’accueil sont une composante essentielle du système de protection de l’enfance. Or, le réseau québécois est confronté à certaines difficultés de recrutement et de rétention. De plus, deux importants chantiers modifieront la pratique entourant l’accueil familial : le déploiement de l’approche S’occuper des Enfants (SOCEN) et la mise en application de la Loi sur la représentation des ressources (LRR), qui engendre une professionnalisation du rôle de famille d’accueil. Il importe donc de s’intéresser à l’expérience des parents d’accueil, afin d’identifier certaines pistes pour mieux faire face à ces défis et transformations. L’objectif de ce mémoire est de mieux comprendre les facteurs qui influencent la satisfaction des parents d’accueil dans leur rôle. Un sous-objectif est de comprendre si l’approche SOCEN a une influence sur cette satisfaction. Pour ce faire, des entrevues individuelles semi-directives ont été effectuées auprès de treize parents d’accueil d’une région du Québec qui implante l’approche SOCEN depuis 2003. Une analyse de contenu thématique concernant leur satisfaction, leur motivation et les défis qu’ils rencontrent a été effectuée. Les résultats montrent que selon les parents d’accueil, la satisfaction dans leur rôle s’incarne dans trois dimensions distinctes: la dimension parentale, la dimension professionnelle et la dimension personnelle. Les facteurs qui influencent leur satisfaction sont : les enjeux de parentalité en contexte de placement à long terme, l’impact du placement sur la famille du parent d’accueil et les enjeux de reconnaissance. Il ressort également que les principes et les outils proposés par l’approche SOCEN pourraient agir sur les facteurs évoqués et ainsi augmenter la satisfaction des parents d’accueil dans leur rôle.
Resumo:
Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.
Resumo:
Il est connu que de nombreux enfants vivent la séparation conjugale de leurs parents. Suite à cette séparation, les enfants vivent majoritairement avec leur mère (parent gardien), tout en maintenant des liens avec leur père (parent non gardien). Bien que les principes de droit suggèrent que l’enfant ait le droit de préserver des liens avec chacun de ses parents à la suite de la séparation conjugale, ces liens ne sont plus assurés sur une base quotidienne et peuvent être affectés. Vivant la séparation de ses parents, l’enfant peut être exposé aux conflits parentaux puisque la séparation peut augmenter leur intensité. L’objectif de ce mémoire est de mieux comprendre la perception des parents non gardiens de leur lien avec leur enfant dans un contexte où les conflits parentaux perdurent à la suite de la séparation conjugale. Un sous-objectif est de documenter les facteurs qui influencent les liens entre les parents non gardiens et leur enfant à la suite de la séparation conjugal. Pour ce faire, des entrevues individuelles semi-directives ont été effectuées auprès de huit parents non gardiens. Une analyse de contenu thématique concernant leur perspective sur l’objet de recherche a été effectuée. Selon la perspective des parents non gardiens, les résultats montrent que la qualité de la relation entre eux et leur enfant se maintient positivement. Le facteur le plus prédominant est les conflits parentaux post-séparation. Il en ressort qu’ils alimentent d’autres facteurs, tels que les modalités de garde d’enfant et droits d’accès, la fréquence de contacts entre les parents non gardiens et leur enfant, les comportements des enfants à l’égard de leur parent non gardien, l’engagement parental des parents non gardiens ainsi que la relation parentale post-séparation.