951 resultados para Conception numérique de revêtements optiques
Resumo:
Ce mémoire en recherche création est divisé en deux principales sections : un recueil de poésie et un essai. Le recueil, intitulé Le Cœur est une permanence, explore différentes interprétations du phénomène d’empathie dans la création littéraire. Afin que l’empathie devienne l’objet du discours, ce dernier est centré sur la relation à l’autre. L’empathie prend vie à travers deux entités, un « je » et un « tu ». Alors que le « je » entre en contact avec ses propres zones d’ombres, il s’ouvre tranquillement aux souffrances du « tu ». Au fil des poèmes, le « je » et le « tu » apaisent leur douleur en la partageant, faisant de l’empathie une voie d’accès à l’intimité. Ce déploiement de l’intime prend forme en trois temps : les sections replis de voix, point archimédien et ensembles vides. Le recueil accorde une importance particulière à la figure du corps comme véhicule de la souffrance. Il propose une réflexion sur l’amour, balançant entre naufrage et terre promise, et fait de l’enfance une pierre de touche pour interroger la douleur. La deuxième partie de ce mémoire est un essai intitulé Empathie et souffrance dans Tête première / Dos / Contre dos de Martine Audet. Divisé en trois chapitres, cet essai étudie l’empathie à l’œuvre dans le recueil de Audet, selon une approche bioculturelle. Il allie interprétation littéraire, sciences cognitives de deuxième génération et philosophie de l’esprit. Dans le premier chapitre, le concept de « simulation incarné », développé par Vittorio Gallese, permet d’interpréter la figure du corps et de suggérer qu’elle véhicule la douleur tout en étant la manifestation d’un effacement identitaire. Le deuxième chapitre se penche sur l’intersubjectivité en lien avec l’empathie. Il intègre certaines notions clés de la phénoménologie husserlienne afin d’analyser les manifestations du lien empathique unissant les deux présences parcourant le recueil de Audet. Le dernier chapitre explique comment les représentations de l’environnement dans lequel évoluent ces présences peuvent refléter leur souffrance. Pour ce faire, certains concepts liés à l’environnement, particulièrement importants pour l’écocritique actuelle, sont analysés dans Tête première / Dos / Contre dos, comme ceux de place et de nature. Ces derniers, étant construits par les perceptions propres à la cognition humaine, sont envisagés d’un point de vue bioculturel. En interprétant ces trois principaux aspects du texte (figure du corps, intersubjectivité et environnement), l’hypothèse selon laquelle la perception de la souffrance dans Tête première / Dos / Contre dos repose essentiellement sur l’empathie comme effet et objet du discours s’en voit validée.
Resumo:
Établir une régulation de l’économie numérique au Sénégal représente un enjeu fondamental pour les gouvernants et l’ensemble des acteurs qui la compose. Suivant une démarche plus globalisée, d’énormes mutations normatives visant les rationalités et les mécanismes de réglementations ont évolué dans le temps donnant une place plus considérable au droit dans les politiques publiques des États. Différents modèles normatifs et institutionnels sont ainsi adaptés pour prendre en charge le phénomène de la convergence dépendamment du contexte réglementaire du pays. Pour ce qui est du contexte actuel du Sénégal, l’étanchéité des réglementations relatives aux télécommunications et à l’audiovisuel, désormais convergent, est fondée sur un modèle de réglementation sectorielle. Toutefois, leur convergence a provoqué un brouillage des frontières qui risque désormais de poser des conséquences énormes sur le plan normatif tel que des risques d’enchevêtrement sur le plan institutionnel ou réglementaire. Or au plan national, il n’existe à ce jour aucun texte visant à assoir les bases d’une régulation convergente. Ainsi, à la question de savoir si la régulation sectorielle est pertinente au regard de l’environnement du numérique marqué par la convergence, il s’est avéré qu’elle pourrait être adoptée comme modèle à court terme. Mais dans un but de réaliser des économies d’échelle pour réguler efficacement les différents secteurs et industries infrastructurelles, il faut un modèle de régulation unique marquée par la fusion de l’ARTP et du CNRA. D’une part, la régulation sectorielle permet d’accompagner la transition vers le numérique déjà lancée et d’autre part la régulation multisectorielle servira une fois la convergence des marchés établis.
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Resumo:
Le but de ce travail est d’étudier la faisabilité de la détection de mouvements dans des séquences d’images en utilisant l’équation de continuité et la dynamique de supraconductivité. Notre approche peut être motivée par le fait que l’équation de continuité apparait dans plusieurs techniques qui estiment le flot optique. Un grand nombre de techniques qui utilisent les flots optiques utilisent une contrainte appelée contrainte de l’invariance lumineuse. La dynamique de supraconductivité nous permet de nous affranchir de la contrainte de l’invariance lumineuse. Les expériences se feront avec la base de données de séquences d’images CDNET 2014. Pour obtenir les résultats numériques en terme de score F1, une combinaison sera faite par la suite entre la dynamique de supraconductivité et un méchanisme d’attention qui est un résumé des vérites de terrain.
Resumo:
Motivé par l’évolution de la production architecturale durable dans les pays d’Amérique latine, et plus particulièrement en Colombie, mon projet de recherche porte sur l’adaptation de l’architecture à ce nouveau contexte. L’approche architecturale traditionnelle à la prise en compte de l’énergie et du climat est l’architecture bioclimatique : reproduite à partir de connaissances et techniques ancestrales remontant à la conception de l’abri, cette dernière étudie les phénomènes physiques associés au confort thermique afin de les reproduire dans une nouvelle architecture. De nouvelles méthodes d’évaluation environnementale se sont développées dans les dernières décennies pour améliorer l’intégration environnementale des bâtiments. Ces méthodes privilégient la normalisation des solutions et utilisent des systèmes de certification pour reconnaître la performance environnementale et énergétique des bâtiments. Le résultat visé est la conformité aux standards internationaux de durabilité. Ce mémoire porte sur l’analyse comparative de l’architecture bioclimatique et de la certification environnementale à partir de la structure des sujets abordés par LEED, une des méthodes les plus connues d’une telle certification. Cette comparaison permet de constater que les deux approches sont motivées par les mêmes préoccupations environnementales mais que leurs méthodes d’intégration de ces préoccupations diffèrent, en particulier quant à la prise en compte des facteurs locaux et globaux.
Resumo:
Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.
Resumo:
La déchirure de la coiffe des rotateurs est une des causes les plus fréquentes de douleur et de dysfonctionnement de l'épaule. La réparation chirurgicale est couramment réalisée chez les patients symptomatiques et de nombreux efforts ont été faits pour améliorer les techniques chirurgicales. Cependant, le taux de re-déchirure est encore élevé ce qui affecte les stratégies de réhabilitation post-opératoire. Les recommandations post-chirurgicales doivent trouver un équilibre optimal entre le repos total afin de protéger le tendon réparé et les activités préconisées afin de restaurer l'amplitude articulaire et la force musculaire. Après une réparation de la coiffe, l'épaule est le plus souvent immobilisée grâce à une écharpe ou une orthèse. Cependant, cette immobilisation limite aussi la mobilité du coude et du poignet. Cette période qui peut durer de 4 à 6 semaines où seuls des mouvements passifs peuvent être réalisés. Ensuite, les patients sont incités à réaliser les exercices actifs assistés et des exercices actifs dans toute la mobilité articulaire pour récupérer respectivement l’amplitude complète de mouvement actif et se préparer aux exercices de résistance réalisés dans la phase suivante de la réadaptation. L’analyse électromyographique des muscles de l'épaule a fourni des évidences scientifiques pour la recommandation de beaucoup d'exercices de réadaptation au cours de cette période. Les activités sollicitant les muscles de la coiffe des rotateurs à moins de 20% de leur activation maximale volontaire sont considérés sécuritaires pour les premières phases de la réhabilitation. À partir de ce concept, l'objectif de cette thèse a été d'évaluer des activités musculaires de l'épaule pendant des mouvements et exercices qui peuvent théoriquement être effectués au cours des premières phases de la réhabilitation. Les trois questions principales de cette thèse sont : 1) Est-ce que la mobilisation du coude et du poignet produisent une grande activité des muscles de la coiffe? 2) Est-ce que les exercices de renforcement musculaire du bras, de l’avant-bras et du torse produisent une grande activité dans les muscles de la coiffe? 3) Au cours d'élévations actives du bras, est-ce que le plan d'élévation affecte l'activité de la coiffe des rotateurs? Dans notre première étude, nous avons évalué 15 muscles de l'épaule chez 14 sujets sains par électromyographie de surface et intramusculaire. Nos résultats ont montré qu’avec une orthèse d’épaule, les mouvements du coude et du poignet et même quelques exercices de renforcement impliquant ces deux articulations, activent de manière sécuritaire les muscles de ii la coiffe. Nous avons également introduit des tâches de la vie quotidienne qui peuvent être effectuées en toute sécurité pendant la période d'immobilisation. Ces résultats peuvent aider à modifier la conception d'orthèses de l’épaule. Dans notre deuxième étude, nous avons montré que l'adduction du bras réalisée contre une mousse à faible densité, positionnée pour remplacer le triangle d’une orthèse, produit des activations des muscles de la coiffe sécuritaires. Dans notre troisième étude, nous avons évalué l'électromyographie des muscles de l’épaule pendant les tâches d'élévation du bras chez 8 patients symptomatiques avec la déchirure de coiffe des rotateurs. Nous avons constaté que l'activité du supra-épineux était significativement plus élevée pendant l’abduction que pendant la scaption et la flexion. Ce résultat suggère une séquence de plan d’élévation active pendant la rééducation. Les résultats présentés dans cette thèse, suggèrent quelques modifications dans les protocoles de réadaptation de l’épaule pendant les 12 premières semaines après la réparation de la coiffe. Ces suggestions fournissent également des évidences scientifiques pour la production d'orthèses plus dynamiques et fonctionnelles à l’articulation de l’épaule.
Resumo:
Volet cinématographique d’une révolution d’ordre social, la Nouvelle Vague a cristallisé les changements qui ont bouleversé la société européenne au début des années soixante. De l’émancipation sexuelle à la mise en scène d’une jeunesse affranchie, elle sut se faire le miroir cinématographique d’une libération des mœurs qui fit entrer les Européens dans une ère nouvelle. Si une nouvelle conception du cinéma suffit à accorder une place de choix au mouvement dans son histoire, ses représentants ont également forgé une nouvelle figure du héros masculin dans le paysage cinématographique français. Loin des héros lisses de l'académisme ou de la gravité de ceux du réalisme poétique qui l'ont par exemple précédé, l'héroïsme conjugué par la Nouvelle Vague insufflait légèreté, oisiveté et désinvolture à des protagonistes dont le dilettantisme des acteurs Jean-Pierre Léaud et Jean-Paul Belmondo (par exemple) en constitua le parangon. Le travail de recherche dont il est ici question visera principalement à s’interroger sur la façon dont ce héros atypique semble s’être annexé aux voix du cinéma français contemporain qui en présentent une mosaïque de réinterprétations. Mouvement dont le rayonnement ne semble toujours pas s’être tari – son héritage est encore revendiqué par plusieurs cinéastes – et qui dépasse la sphère du cinéma, nous viserons surtout à rendre compte de la pérennité de la Nouvelle Vague à travers l'examen de la perpétuation de son héritage par de nouvelles générations d'auteurs. Ce projet de mémoire s'essaiera notamment à la définition d'une identité du héros cinématographique français contemporain qui ne nous semble a priori pas si éloignée de celle colportée dans les années soixante par les porte-étendards de la Nouvelle Vague.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) démontrent de plus en plus de capacités à activer des mécanismes jusqu’alors associés à des facteurs de transcription ou des molécules d’adhésion. En effet, de nouvelles preuves rapportent qu’ils pourraient également participer au guidage axonal qui est le mécanisme permettant aux axones de cellules nerveuses de rejoindre leur cible anatomique. Le guidage axonal se fait par l’interaction entre les molécules de guidage et une structure particulière présente à l’extrémité de l’axone, le cône de croissance. Par exemple, les RCPGs participent au guidage des cellules ganglionnaires de la rétine (CGR), dont les axones s’étendent de la rétine jusqu’au noyaux cérébraux associés à la vision. Cet effet est observé avec des RCPGs tels que les récepteurs aux cannabinoïdes (CB1 et CB2) et celui du lysophosphatidylinositol, le GPR55. Les RCPGs GPR91 et GPRG99, respectivement récepteurs au succinate et à l’α-cétoglutarate, se trouvent à la surface de ces CGRs, ce qui en font des candidats potentiels pouvant participer au guidage axonal. Dans ce mémoire, l’effet des ligands de ces récepteurs sur la croissance et la navigation des axones des CGRs fut analysé. L’impact produit par ces récepteurs ainsi que leurs ligands sur la morphologie des cônes de croissance fut déterminé en mesurant leur taille et le nombre de filopodes présents sur ces cônes. Pour évaluer le rôle du succinate et de l’a-cétoglutarate sur la croissance globale des axones de CGRs, la longueur totale des projections axonales d’explants rétiniens a été mesurée. L’effet de ces ligands des récepteurs GPR91 et GPR99 sur le guidage axonal a également été évalué en temps réel à l’aide d’un gradient créé par un micro injecteur placé à 45° et à 100µm du cône de croissance. La distribution in vivo des récepteurs GPR91 et GPR99 sur la rétine a été étudié à l’aide d’expériences d’immunohistochimie. Les résultats obtenus indiquent que l’ajout de 100µM de succinate produit une augmentation de la taille des cônes de croissance et du nombre de filopodes présents à leur surface. Il augmente également la croissance des axones. Ce type de réponse fut également observé lorsque les cellules furent soumises à 200µM d’α-cétoglutarate. Fait à noter, les deux récepteurs n’ont pas d’impact sur le guidage axonal. Ces résultats indiquent donc que les agonistes des récepteurs GPR91 et GPR99 augmentent la croissance des cellules ganglionnaires lorsqu’ils sont présents lors du développement. Par contre, ils n’ont pas d’influence sur la direction prise par les cônes de croissance. Ces nouvelles données sont un pas de plus dans la compréhension des mécanismes qui gèrent et participent au développement et la croissance des CGRs, ce qui pourrait donner de nouvelles cibles thérapeutique pouvant mener à la régénération de nerfs optiques endommagés.
Resumo:
Ce présent mémoire porte sur la conception historique de la phénoménologie dans le dernier ouvrage de Husserl, La crise des sciences européennes et la phénoménologie transcendantale (1937). Le chapitre 1 avance, qu’il n’y a pas, du point de vue de ses motifs internes, de « tournant historique » de la phénoménologie. Le projet d’une théorie transcendantale de l’histoire doit se comprendre comme étant l’aboutissement nécessaire de la pensée husserlienne. Le chapitre 2 s’intéresse à la manière par laquelle la phénoménologie serait censée renouveler l’identité collective de l’Europe et résoudre la séparation entre la pensée et l'action. La phénoménologie, à partir d’une critique de l’objectivisme des sciences, serait la réalisation du telos de la pensée moderne. Cependant, l’exigence d’authenticité de Husserl s’avère insuffisante pour parvenir à une juste compréhension des implications de la responsabilité. Bien que cette visée humaniste soit d’un intérêt évident, elle s’avère trop rudimentaire.
Resumo:
Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.
Resumo:
Dans Dialectique de la Raison, Adorno et Horkheimer tentent d’esquisser le pourquoi et le comment de ce retour à la barbarie qu’a connu la civilisation européenne, lors du troisième Reich. Quelles sont ces conditions qui ont rendu possibles les massacres administrés sous le régime nazi? La résolution de cette énigme qui se solde sur l’échec de l’Auflkärung nous dévoile une nécessité, celle d’une transformation radicale à la fois de l’éthique et de la métaphysique dans sa conception de la vérité. Celle-ci se présente à nous sous la forme d’une norme morale : « Dans leur état de non-liberté, Hitler a imposé aux hommes un nouvel impératif catégorique; penser et agir en sorte qu’Auschwitz ne se répète pas ». Quelles modalités de penser et d’agir nous exhortent ce nouvel impératif catégorique? La philosophie d’Adorno, critiqué pour n’avoir été que négative dans son entreprise, est-elle en mesure de nous fournir des prescriptions normatives capables de réorienter le penser théorétique et l’éthique?
Resumo:
Le corps demeure un sujet d'études en vogue de nos jours. Une multitude d'articles et d'ouvrages abordent la représentation du corps au cinéma. Notre étude se concentre précisément sur le corps du héros du film d'action américain pendant la période classique des années 80. Il sera ainsi question de la musculature hyperbolique d’Arnold Schwarzenegger et de Sylvester Stallone. L'hypothèse de notre recherche est que la mise en scène du physique de l’acteur dans le film d’action demeure représentative de la conception héroïque de son époque. Premièrement, nous explorons la construction héroïque spécifique au film d'action classique. Nous posons que cette figure de héros américain évoque une glorification de la corporalité qui renvoie à la conception mythologique du héros occidental, celle-ci relative à notre imaginaire collectif. Une attention particulière sur la performance de Stallone dans son rôle de John Rambo servira pour appuyer notre réflexion. Deuxièmement, une analyse de la représentation du corps de Schwarzenegger dans ses premiers rôles nous permettra de vérifier à quel point le physique de cet acteur correspond à un nouveau paradigme, un nouveau modèle corporel pour incarner une figure héroïque au cinéma. Troisièmement, nous considérons le contexte socio-politique américain pendant les années 80 afin de constater l'influence de la société dans la construction d'une figure héroïque au cinéma. Une étude de la figure héroïque « reaganienne » sera développée en fonction de la comparaison de ces deux stars. Nous pourrons appréhender comment la représentation du corps dans le film d'action américain peut contribuer à la construction sociale du corps dans notre société occidentale contemporaine.
Resumo:
Introduction : Extenso, le centre de référence en nutrition de l’Université de Montréal, a développé les formations Croqu’Plaisir destinées aux intervenants en services de garde à la petite enfance et des nutritionnistes furent sélectionnées afin de les déployer au Québec. Étant donné le volume imposant de nouvelles connaissances à intégrer pour les diététistes-nutritionnistes, l’utilisation d’un outil pédagogique visant à structurer la pensée semblait pertinente. Cette étude avait pour objectif de décrire l’utilisation de cartes conceptuelles par des nutritionnistes formatrices à la petite enfance au Québec. Méthode : Les nutritionnistes formatrices ont assisté à une formation sur les cartes conceptuelles qui leur a permis de développer une carte conceptuelle à l’aide du logiciel CmapTools sur un sujet de leur choix. Puis, leurs perceptions furent recensées lors d'entrevues dirigées et individuelles. Résultats : 8 diététistes-nutritionnistes possédant de 2 à 15 ans d’expérience et ayant animé de 0 à 32 formations Croqu’Plaisir ont participé à l’étude. Les participantes de l’étude ont affirmé être assez autonomes pour utiliser les fonctions de base du logiciel, mais ont vécu des difficultés lors de la conception de leur carte. Conclusion : Plusieurs commentaires des participantes révèlent des barrières à leur utilisation, soit le temps, la résistance au changement et les barrières organisationnelles. Pour que la place des cartes conceptuelles en nutrition se développe et que leur utilisation soit valorisée, un contexte propice à leur utilisation doit être crée, tant d’un point de vue personnel qu’organisationnel, tant en milieu académique que professionnel.
Resumo:
Dans ce mémoire, nous proposons une étude de la réception des albums publiés en Colombie ou par des auteurs et illustrateurs colombiens dans la période allant de 2000 à 2013. À partir de la définition de l'album qui va s'exposer, nous comprenons qu'il s'agit d'un objet culturel qui est conçu et fabriqué, qui soutient et est impliqué dans le récit et qui est partagé pendant la lecture. En ce sens, nous allons considérer non seulement les dynamiques qui le définissent, mais nous allons aussi le lier à une conception de l'enfant, de la lecture et du livre auxquels ce type d'expression artistique semble répondre. C'est à dire, à une vision esthétique du livre pour les enfants, à la lecture comme une fin en elle-même et à l'enfant lecteur comme un récepteur actif. Pour ce faire, nous allons nous servir de la notion de communautés interprétatives proposée par Stanley Fish pour inclure dans l'analyse le contexte de la médiation esthétique de lecture en Colombie comme le cadre définissant les stratégies interprétatives qui dirigent la construction du sens dans les expériences de lecture de notre corpus.