155 resultados para indexation d’images
Resumo:
La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.
Resumo:
Le présent travail est une étude sur Le Petit Prince, d’Antoine de Saint-Exupéry. Le but principal du mémoire est d’analyser la réception du message chez le lecteur adulte et chez le lecteur enfant. Nous avons analysé comment l’enfant et l’adulte interprètent le message donné par l’oeuvre, parsemée d’images et d’allégories, des citations qui son devenues symboliques avec le temps. Ensuite, nous avons analysé les personnages dans le but d’interpréter leur sens symbolique. Pour réaliser cette recherche, nous avons regardé plusieurs interprétations allégoriques. Les résultats de notre étude nous ont permis d’affirmer que la réception du message n’est pas la même chez le lecteur adulte et le lecteur enfant. Les résultats de cette étude montrent enfin qu’il est trop difficile pour le lecteur enfant de comprendre le sens moral d’une image allégorique, tandis que le lecteur adulte est plus apte à interpréter l’image allégorique en s’appuyant sur son expérience de la lecture et de son expérience de la vie quotidienne. L’auteur utilise l’image symbolique dans la littérature pour montrer avec plus de clarté la condition humaine. En conclusion nous apprenons que Le Petit Prince nous fait réfléchir sur la vie de la façon plus profonde et philosophique.
Resumo:
Le cinéma constitue un langage qui témoigne du réel et de l’imaginaire. Et l’image est une forme d’écriture de ce langage. L’expérience qui sera ici relatée est celle de la genèse d’une transécriture cinématographique du recueil de poésie II n’y a plus de chemin, de Jacques Brault. Par ce processus de transécriture, les images mentales générées par la lecture deviennent images cinématographiques et témoignent d’une nouvelle forme d’écriture des poèmes. La transécriture ne s’effectue cependant pas uniquement par la réalisation d’images cinématographiques. Chaque lecteur, tout comme chaque spectateur, est aussi transécrivain. Utilisant les fragments d’images proposées par le poème et comblant les vides de l’univers décrit, le lecteur imagine le poème, crée des images mentales, réalisant pour lui-même un film intérieur. Par conséquent, plus il s’engage dans cette aventure, plus il se voit forcé d’adopter le parcours intrinsèque des images qui le manipulent.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.
Dynamique des ambiances lumineuses - approche basée sur la photométrie vidéo d’espaces de transition
Resumo:
Les variations de la lumière naturelle lors du passage d’un espace à un autre caractérisent de manière complexe, mais importante le design d’un bâtiment. Cette adaptation visuelle s’inscrit dans un processus spatiotemporel et influe sur le confort et le bien-être de ses occupants. La littérature fait état du peu de connaissances de la relation lumière espace-temps. Cette recherche propose donc d’étudier cette relation spatio-temporelle existant entre la lumière et l’espace, afin de qualifier un parcours architectural au moyen d’une expérimentation in situ et de segments filmiques. La recherche combine l’utilisation d’un luminance-mètre, d’une caméra vidéo et d’une méthode d’analyse d’images numériques afin de permettre l’évaluation des qualités spatio-temporelles de la lumière. Le parcours architectural est analysé selon la diversité et l’intensité des ambiances lumineuses en fonction du temps permettant de décrire les perceptions visuelles d’espaces transitions. Cette méthode dynamique offre un potentiel d’analyse et de création aux concepteurs désireux d’enrichir le design de séquences spatiales en favorisant la diversité lumineuse dans l’expérience architecturale. Mots clefs: adaptation visuelle, analyse d’images, ambiance lumineuse, contraste, éclairage naturel, espaces transitions, lumière perception visuelle, vidéo, spatio-temporel.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
Estudo de caso único exploratório e descritivo voltado a analisar a indexação em uma das bibliotecas universitárias do SIB/FURG. Os objetivos específicos, delimitados a partir do contexto já citado, foram: a) Identificar e analisar, através de mapeamento cognitivo, os procedimentos metodológicos empregados na indexação nas atividades de análise, síntese e representação da informação; b) Identificar os conceitos/noções com maior importância na percepção da indexadora quanto ao processo de indexação e as relações entre tais conceitos de forma a construir o mapa cognitivo do processo a partir da percepção da indexadora; e c) Descrever e analisar a indexação de livros na unidade em estudo sob aspecto da análise, síntese e representação destes através da aplicação do Protocolo Verbal. As técnicas utilizadas para a coleta de informação no estudo de caso único foram a Self-Q e o Protocolo Verbal, ambas centradas na abordagem qualitativa. Conclui-se, a partir da construção do mapa cognitivo da indexadora, que as noções/conceitos que sustentam sua prática voltam-se, em sua maioria, a aspectos de caráter procedimental. Percebeu-se também que a prática de indexação ocorre desconectada dos princípios de especificidade e exaustividade. Sobre a indexação de livros conclui-se que, na unidade sob estudo, as operações de análise são desenvolvidas de modo empírico através da leitura e interpretação de partes do documento indexado. Identificou-se que o enfoque da prática não recai apenas no documento mas também, no usuário. A análise e síntese ocorrem de forma integrada, sendo que, em alguns momentos, a síntese é desenvolvida a partir do conhecimento dos descritores do tesauro. A delimitação dos conceitos, por sua vez, foi influenciada, por vezes, pelo(a): uso de termos já empregados na unidade em que atua/sistema, presença do descritor no sumário, conhecimento das demandas dos usuários, área de domínio em que indexa e percepção enquanto profissional. Percebeu-se que não existem níveis definidos quanto a exaustividade e especificidade na indexação. Na representação dos conceitos foram identificadas dificuldades ocasionadas pela ausência de relacionamentos entre termos e/ou ausência de termos voltados a área indexada no tesauro empregado. Conclui-se que faz-se necessário o desenvolvimento de uma política de indexação formalizada para basilar a prática desenvolvida no SIB/FURG.
Resumo:
Depuis le début du XXIe siècle, un type particulier d’images a envahi l’espace public constitué par Internet : il s’agit des images principales de profil, ces images que les utilisateurs de sites de réseaux sociaux choisissent pour les représenter auprès des autres individus connectés. Comme le plus souvent il s’agit d’une image du corps de celui ou celle qui s’affiche ainsi, il est intéressant de s’intéresser à cette pratique en la rattachant à des pratiques plus anciennes. Dans un premier temps, cette étude présente donc une perspective socio-historique en notant la ressemblance de la pratique de l’image principale de profil avec celle de l’autoportrait et du portrait commandé. Cela permet de remarquer plusieurs points de rupture ou d’inflexion dans l’usage de ce type d’images, mais aussi d’en dégager les usages sociaux typiques. Ensuite, l’observation d’un lieu particulier d’Internet permet de tirer les conclusions suivantes : si l’usage principal de ces images est facile à expliquer, elles servent à symboliser une présence dans des lieux non accessibles aux corps sensibles, ces images montrent toujours des éléments qui permettent de déduire une position sociale et elles sont fondamentalement identiques aux images produites avant Internet. Ensuite, l’étude de ces images montre qu’il y a un véritable continuum dans la manière de dévoiler son intimité qui permet d’affirmer que la frontière entre public et privé n’existe pas sur Internet. Finalement, ces images montrent une absence de canon quant à leur production et une multiplicité des façons de se mettre en scène qui laissent à penser qu’elles sont devenues des symboles à part entière dans la communication qui peut s’établir entre des étrangers sur Internet.
Resumo:
La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.
Resumo:
El proyecto titulado Creación y diseño de la plataforma web y aplicación móvil para la realización de la revista digital de carácter académico-estudiantil (Arkhé), tuvo como objetivo instaurar un medio propio para la Carrera de Comunicación Social, destinado a la publicación de trabajos e investigaciones de docentes y estudiantes. El proyecto fue estructurado visual y conceptualmente. En cuanto a la estructura visual, se crearon elementos que identifican a la revista, como: logotipo, colores y todo lo relacionado al diseño visual y funcional de la página y su aplicación móvil. En lo referente a la parte conceptual, se elaboraron las bases fundamentales para que exista una revista como: misión, visión, sostenibilidad, concepto de su nombre, creación de la línea editorial, Consejo Editorial, políticas de calidad y normas de publicación; para convertir a Arkhé en una fuente de referencia confiable con posibilidades de indexación. El presente proyecto comprende una investigación teórica y práctica. En el primer capítulo se partió de un marco teórico y se desarrollaron conceptos indispensables para la elaboración de una revista digital. En el segundo se mostró los resultados de la aplicación de encuestas y entrevistas realizadas a estudiantes y profesores. En el tercero se elaboraron las bases de la revista académica y de la estudiantil. Finalmente en el cuarto capítulo se creó el espacio web en donde consta toda la información de la revista para que puedan publicar sus trabajos. En consecuencia, Arkhé es un medio que apoya al proceso de aprendizaje, en el que profesores y estudiantes desarrollan sus habilidades a través de la práctica.