999 resultados para Échelle de mesure
Resumo:
Le présent travail explore le phénomène de la rivalité interétatique1 et les mesures de son intensité. Chacune des définitions existantes de la rivalité fait la lumière sur l’une de ses caractéristiques. La rivalité durable met l’accent sur la compétition militarisée, la rivalité stratégique accorde une importance particulière à la perception de l’ennemi, tandis que la rivalité interétatique est axée sur les questions autour desquelles la compétition se déroule. Ces visions différentes du phénomène de la rivalité laissent leur empreinte sur son opérationnalisation et sur le choix des paramètres visant à le capter. Nous réunissons ces trois interprétations dans une seule définition de rivalité interacteur, en proposant une nouvelle classification des actions hostiles, ainsi que la mesure alternative d’hostilité fondée sur la fréquence de ces dernières. Les quatre études de cas suivantes nous ont permis d’atteindre ces objectifs : les relations de rivalité entre l’Afghanistan et le Pakistan, entre l’Arménie et l’Azerbaïdjan, entre le Bélize et le Guatemala, ainsi qu’entre la Somalie et l’Éthiopie.
Resumo:
La coexistence des services de francisation au Québec pour les personnes immigrantes adultes a fait l'objet de divers enjeux liés notamment au passage des apprenants d'un lieu de formation à un autre (Québec, MICC, 2011a). Dans le but de répondre à ces enjeux et d’harmoniser l'offre de services gouvernementaux en matière de francisation des adultes, le ministère de l'Immigration et des Communautés culturelles (MICC) a élaboré en collaboration avec le ministère de l'Éducation, du Loisir et du Sport (MELS), une innovation pédagogique, soit un référentiel commun québécois composé de deux instruments : l’Échelle québécoise des niveaux de compétence en français des personnes immigrantes adultes et le Programme-cadre de français pour les personnes immigrantes adultes au Québec. Le but de notre étude était de mieux comprendre l'implantation du référentiel commun québécois, de faire état des représentations du personnel enseignant en francisation vis-à-vis de cette innovation pédagogique et d’identifier les principaux facteurs qui structurent son implantation. Pour atteindre ces objectifs de recherche, nous avons mené une étude qualitative dans laquelle nous nous sommes appuyée sur le modèle d'implantation de Vince-Whitman (2009) qui identifie douze facteurs facilitant l’implantation d’une politique et d’une pratique. Nous avons accédé aux représentations de douze enseignantes et enseignants en francisation qui œuvrent au MICC et au MELS lors d’entretiens de groupe en leur permettant de s'exprimer sur leurs pratiques pédagogiques et sur leurs impressions du référentiel commun québécois. À l’aide du logiciel QSF NVivo 8, nous avons analysé le contenu des propos de nos participants de recherche. Nos résultats démontrent que le manque appréhendé de ressources – humaines, matérielles et financières, et un manque de temps, de formation et de collaboration professionnelle pourraient représenter des obstacles et nuire à une éventuelle implantation du référentiel commun québécois. À la lumière de ces résultats, nous proposons un cadre de référence composé de sept facteurs d’implantation d’une innovation pédagogique afin de mieux rendre compte d’une réalité spécifique et contemporaine, celle de l'implantation du référentiel commun québécois pour la francisation des immigrants adultes scolarisés. Les écrits scientifiques et nos résultats de recherche démontrent que de diverses formes de soutien, principalement du matériel pédagogique approprié et suffisant, peuvent constituer un facteur-clé dans la réussite de l’implantation d’une innovation pédagogique.
Resumo:
Plusieurs programmes de formation offrent des stages pour compléter la formation et valider les apprentissages des stagiaires en regard du développement de leurs compétences. L’évaluation des savoirs et des savoir-faire occupe une grande place lors de la prestation des stagiaires et permet d’établir leur niveau de compétence. Mais qu’en est-il de l’évaluation de leurs savoir-être professionnels ? Pourtant le savoir-être est une composante indispensable au plein développement de la compétence. Les stagiaires manifestent leurs savoir-être professionnels en milieu clinique. Sans s’en rendre compte, leurs comportements influencent leur future embauche par une institution de santé. C’est la plus value qui fait la différence. Dans notre pratique enseignante, souvent nous éprouvons des difficultés dans l’accompagnement des stagiaires pour le plein développement de leurs savoir-être professionnels. Lorsque surviennent des difficultés, l’absence d’outil rend difficile la tâche d’évaluation des savoir-être professionnels. Cette réalité nous amène au thème de cet essai qui vise la conception d’outils d’évaluation des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie. Les difficultés d’évaluation des savoir-être professionnels dues à l’absence d’outils a entraîné une réflexion nous menant tout droit à nous questionner sur les caractéristiques essentielles des outils d’évaluation permettant aux enseignantes et aux enseignants de porter un jugement objectif sur les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Suite à une recension d’écrits en lien avec les concepts des savoir-être professionnels, de l’évaluation et des outils d’évaluation, nous nous sommes fixé cinq objectifs spécifiques pour répondre à notre question générale de l’essai : 1) Établir une nomenclature des savoir-être professionnels pour le programme collégial Techniques d’inhalothérapie; 2) Décrire les savoir-être professionnels en manifestations observables; 3) Concevoir un outil d’autoévaluation en regard du développement des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie; 4) Concevoir une liste de vérification des comportements observables pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie; et 5) Concevoir une grille d’évaluation à échelle descriptive pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Avec une posture épistémologique interprétative et une approche qualitative, nous avons opté pour un essai de type recherche développement, selon Harvey et Loiselle (2009), visant la conception de trois outils d’évaluation des savoir-être professionnels, soit : a) un outil d’autoévaluation, b) une liste de vérification des comportements observables et c) une grille d’évaluation à échelle descriptive. Après avoir réalisé les deux premiers objectifs spécifiques de cet essai, nous avons sollicité les enseignantes et les enseignants des départements de Techniques d’inhalothérapie du Collège de Rosemont et du Collège de Valleyfield pour procéder à la validation des outils d’évaluation des savoir-être professionnels. Pour accompagner les cinq enseignantes et les trois enseignants dans leur démarche de validation, nous avons privilégié un questionnaire de validation, des entrevues semidirigées et un groupe de discussion pour recueillir les données qualitatives et quantitatives que nous avons traitées en deux temps.L’analyse et l’interprétation des résultats ont permis l’atteinte des objectifs spécifiques fixés. En plus d’établir la nomenclature des savoir-être professionnels, les données recueillies portent un regard critique sur la conception des outils d’évaluation des savoir-être professionnels destinés aux stagiaires du programme collégial Techniques d’inhalothérapie. Grâce aux commentaires et aux suggestions obtenus, nous peaufinerons nos outils pour les rendre plus efficaces après cet essai pour ensuite les remettre aux enseignantes et aux enseignants cliniques participants qui décideront avec leur département respectif s’ils désirent les utiliser. Cet essai identifie huit savoir-être professionnels que doivent démontrer les stagiaires du programme collégial Techniques d’inhalothérapie. Ces savoir-être professionnels se manifestent à partir de quarante-deux comportements observables. La conception de nos outils d’évaluation permet de porter un regard objectif sur le développement des savoir-être professionnels de nos stagiaires. Cet essai ne vise pas à généraliser ces résultats. Nous souhaitons plutôt la transférabilité des résultats à d’autres programmes afin d’accompagner d’autres enseignantes et enseignants qui éprouvent des difficultés lors de l’évaluation des savoir-être professionnels.
Resumo:
Hardpans (plough/hoe pans) are commonly believed to restrict plant root growth and crop yields under conventional small-scale agriculture in sub-Saharan Africa. This study questions the notion of widespread hardpans in Zambia and their remedy under conservation tillage. Soil penetration resistance was measured in 8x12 grids, covering 80 cm wide and 60 cm deep profiles in 32 soil pits. Large and fine maize roots were counted in 8x6 grids. Soil samples from mid-rows were analysed for pH, exchangeable H+, exchangeable Al3+, cation exchange capacity, total N and extractable P (Bray 1) at six depths from 0-10 to 50-60 cm. Cultivation-induced hardpans were not detected. Soils under conservation tillage were more compact at 5 cm depth than soils under conventional tillage. No differences in root distributions between conservation and conventional tillage were found. Maize ( Zea mays L. ) roots were largely confined to a relatively small soil volume of about 30 cm x 30 cm x 30 cm. Root growth appeared to be restricted by a combination of low concentrations of N and P. Soil acidity and Al saturation appeared to play a minor role in root distribution. L-shaped taproots in soils under manual tillage reported earlier were not necessarily due to hardpans, but may rather be caused by temporarily dry, impenetrable subsoils early in the rain season. There is no scientific basis for the recommendation given to farmers by agricultural extension workers to “break the hardpan” in fields under manual or animal tillage in the study areas.
Resumo:
Ce rapport présente les éléments qui ont conduit à la qualification des données acquises en 2015 par la station de mesure haute fréquence MOLIT (Mer Ouverte Littoral). La bouée MOLIT est déployée depuis 2008 en baie de Vilaine, une des zones de la côte atlantique les plus menacées par l’eutrophisation. Cette bouée instrumentée constitue un des systèmes de mesure du réseau de mesure haute fréquence Ifremer HOSEA (High frequency Observation network for the environment in coastal SEAs). Cette station est équipée d’une sonde multiparamètre qui mesure les paramètres température, salinité, oxygène dissous, turbidité et fluorescence. Les mesures sont effectuées à deux niveaux (surface et fond) avec une fréquence d’une mesure horaire. Ce rapport synthétise les informations qui ont permis de qualifier les données sur le site des réseaux eulériens d’Ifremer (Coriolis) : contrôles in-situ, historique des opérations de maintenance, constats de vérification des sondes avant et après campagne. Les données ont été qualifiées en quatre états : 1-BON, 2-MOYEN, 3-DOUTEUX, 4-MAUVAIS.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.
Resumo:
Ce congrès était organisé conjointement par les deux grandes associations de développement de l'aquaculture dans le monde: la World Aquaculture Society (WAS, 2300 membres) et la European Aquaculture Society (EAS, 550 membres). Le précédent s'était tenu à Nice, en mai 2000. Il a rassemblé pendant 5 jours plus de 3000 chercheurs et responsables institutionnels de 95 nationalités. Environ 600 communications orales étaient réparties sur 67 sessions suivant un système de 11 salles en parallèle. Entre les salles de conférence étaient présentés les panneaux des 460 posters. Sur le site, l'exposition commerciale accueillait 135 entreprises et organismes; elle a reçu la visite d'environ 2000 visiteurs dont la moitié d'Italiens (source: EAS). Le thème général du congrès était le lien entre la tradition et la technologie. L'objectif était de montrer que les technologies, dont l'image est ambivalente, constituent un outil remarquable de développement de l'aquaculture, y compris en tenant compte des contraintes de durabilité. En effet, les attentes du citoyen, comme du consommateur, restent centrées autour des notions de qualité, sécurité alimentaire, bien-être et santé animale. Les travaux portaient sur les disciplines classiques de l'aquaculture (nutrition, physiologie, génétique, etc) et leur relation avec les biotechnologies. Il faut souligner l'émergence de thèmes de plus en plus liés la démonstration que l'aquaculture peut s'intégrer dans détruire (capacité de charge d'un écosystème, animaux échappés, etc) et à la perception de la société (perception du consommateur, aquaculture et société, position des ONG écologistes, etc). L'U.E. était très présente avec 5 représentants et une implication marquée dans de plusieurs sessions. Sous différentes formes, ses représentants ont rappelé la volonté de l'UE de continuer à soutenir l'aquaculture, avec l'objectif de poursuivre le développement de ce secteur (4 % de croissance moyenne par an). L'aquaculture devrait générer 8 à 10 000 emplois nouveaux sur les 15 prochaines années, notamment dans la conchyliculture et la pisciculture marine au large avec comme mot clef l'intégration dans l'environnement, dans le tissu socio-économique côtier et dans l'imaginaire des gens, touristes, consommateurs, élus, etc. Ce congrès à vocation mondiale a attiré des représentants de régions habituellement peu représentées comme le Moyen Orient et la Chine, présente à de nombreuses sessions. Il a été aussi le lieu de multiples réunions satellites impliquant presque toujours des chercheurs français: grands programmes européens en cours comme SeaFood+, ASEM (coop. Europe - Asie) ou Consensus, assemblée générale de l'EAS, groupe de travail de l'UICN, etc. Ce type de réunion confirme l'importance des contacts personnels directs pour 1. Evaluer les grandes tendances mondiales du secteur 2. Etablir des contacts directs avec des chercheurs seniors des grandes équipes de recherche et des décideurs au niveau européen et extra-européen 3. Tester des idées et des projets de collaboration et de partenariat Il constitue un forum exceptionnel de diffusion de connaissances, d'informations et de messages. Il offre un espace de perception et de reconnaissance d'Ifremer par de nombreux acteurs de la communauté de recherche en aquaculture. Grâce à la variété thématique des sessions où des chercheurs d'Ifremer sont actifs, l'institut renforce sa notoriété notamment dans la dimension pluridisciplinaire. Cette capacité d'ensemblier est la qualité la plus demandée dans les conclusions d'ateliers et la plus rare dans les instituts présents. Le congrès révèle bien l'évolution de l'aquaculture mondiale: il y a 10 ans, la production de masse était au Sud et la technologie et les marchés au Nord (USA, Europe, Japon). Aujourd'hui, la progression économique et scientifique rapide des pays du Sud, surtout en Asie, crée des marchés locaux .solvables pour l'aquaculture (Chine, Inde) et fait émerger une capacité de recherche « de masse». Cette situation exige que la recherche occidentale évolue pour rester compétitive. Pour préserver un secteur important, qui concourt à la sécurité alimentaire en protéines de manière croissante (4% par an, record de toutes les productions alimentaires), la recherche européenne en aquaculture doit maintenir son effort afin de garder une longueur d'avance, surtout dans les secteurs qui seront vitaux dans la décennie: relations avec l'environnement naturel (durabilité dont la maîtrise des coûts énergétiques), qualité des produits, sécurité alimentaire, intégration socio-économique dans des espaces de plus en plus convoités, maîtrise de l'image de l'espèce « cultivée» (industrielle mais contrôlée) par rapport à l'image de l'espèce « sauvage» (naturelle mais polluée et surexploitée). En conséquence, l'UE conserve tout son potentiel de développement car l'essentiel de la valeur ajoutée sera de moins en moins dans la production en quantité mais dans sa maîtrise de la qualité. Cette évolution donne toute sa valeur à la recherche menée par Ifremer et ce d'autant plus que l'institut sera capable d'anticiper les besoins et les attentes des entreprises, des consommateurs, des associations comme des organisations internationales. Dans cette vision, réactivité, capacité d'ensemblier et réflexion prospective sont les qualités à développer pour que l'lfremer puisse donner toute sa mesure notamment dans la recherche en aquaculture. Ces enjeux sont à l'échelle internationale et Ifremer fait partie du petit nombre d'instituts capables de les traiter en large partenariat, en accord complet avec la politique souhaitée par l'UE
Resumo:
Les sulfilimines et les sulfoximines sont des motifs structuraux dont l’intérêt synthétique est grandissant, notamment du fait de leurs applications en chimie médicinale et en agrochimie. Les travaux rapportés dans cet ouvrage décrivent le développement de nouvelles méthodes de synthèse efficaces pour la production de ces unités atypiques. Ces méthodes sont basées sur la réactivité d’une source d’azote électrophile, vis-à-vis de thioéthers et de sulfoxydes. L’utilisation d’un complexe métallique introduit en quantité catalytique a permis de favoriser le processus réactionnel. En tirant bénéfice de l’expertise de notre groupe de recherche sur le développement de réactions d’amination stéréosélectives de liaisons C-H et d’aziridination de styrènes, nous avons d’abord étudié la réactivité des N-mésyloxycarbamates comme source d’azote électrophile. Après avoir optimisé sa synthèse sur grande échelle, ce réactif chiral a été utilisé dans des réactions d’amination de thioéthers et de sulfoxydes, catalysées par un dimère de rhodium (II) chiral. Un processus diastéréosélectif efficace a été mis au point, permettant de produire des sulfilimines et des sulfoximines chirales avec d’excellents rendements et sélectivités. Au cours de l’optimisation de cette méthode de synthèse, nous avons pu constater l’effet déterminant de certains additifs sur la réactivité et la sélectivité de la réaction. Une étude mécanistique a été entreprise afin de comprendre leur mode d’action. Il a été observé qu’une base de Lewis telle que le 4-diméthylaminopyridine (DMAP) pouvait se coordiner au dimère de rhodium(II) et modifier ses propriétés structurales et redox. Les résultats que nous avons obtenus suggèrent que l’espèce catalytique active est un dimère de rhodium de valence mixte Rh(II)/Rh(III). Nous avons également découvert que l’incorporation de sels de bispyridinium avait une influence cruciale sur la diastéréosélectivité de la réaction. D’autres expériences sur la nature du groupe partant du réactif N-sulfonyloxycarbamate nous ont permis de postuler qu’une espèce nitrénoïde de rhodium était l’intermédiaire clé du processus d’amination. De plus, l’exploitation des techniques de chimie en débit continu nous a permis de développer une méthode d’amination de thioéthers et de sulfoxydes très performante, en utilisant les azotures comme source d’azote électrophile. Basée sur la décompositon photochimique d’azotures en présence d’un complexe de fer (III) simple et commercialement disponible, nous avons été en mesure de produire des sulfilimines et des sulfoximines avec d’excellents rendements. Le temps de résidence du procédé d’amination a pu être sensiblement réduit par la conception d’un nouveau type de réacteur photochimique capillaire. Ces améliorations techniques ont permis de rendre la synthèse plus productive, ce qui constitue un élément important d’un point de vue industriel.
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2016.
Resumo:
Les travaux menés au LCPL depuis plusieurs année sur l'engraissement contrôlé de l'huître creuse Crassostrea gigas ont permis, à l'échelle expérimentale de définir les différents paramètres d'élevage: Température: 14°C ration alimentaire: 2.109 cell/ind/j de la diatomée Skeletonema costatum indice AFNOR initial sans incidence débit d'eau: 3 lIind/h eau de mer ou eau salée souterraine Dans ces conditions et après 30 jours d'engraissement, le poids total des huîtres a progressé de 10%, le poids sec de 230%, l'indice AFNOR de 80% et la concentration en glycogène de 450%. Le travail réalisé ici a pour but de transposer de l'échelle expérimentale à une échelle significative pour les professionnels, la technique d'engraissement contrôlé en utilisant l'eau salée souterraine pour la production de phytoplancton d'une part et comme vecteur de régulation thermique d'autre part. En effet, un des intérêts de l'utilisation de l'eau salée souterraine réside dans sa température constante de 14°C permettant un engraissement des huîtres en toute saison sans risque de déclenchement de la gamétogenèse. Afin de vérifier cette possibilité, l'étude a été réalisée au cours de deux saisons: printemps et automne. Pour l'eassai automnal, trois bassins de 8 m2 ont été utilisés, alimentés respectivement en eau de mer naturelle, eau de mer régulé en température par échange thermique avec de l'eau salée souterraine et eau salée souterraine traitée. Dans chaque bassin, 330 kg d'huîtres ont été disposées en 7 ruches de 4 clayettes. Pour l'essai printanier, seuls deux bassins ont été utilisés, alimentés en eau de mer thermorégulée à deux débits différents: 0.61/h et 3 lIh. L'étude a été conduite pour chaque saison sur une période de 35 jours. En automne 2000, l'indice de qualité de chair de 8.2 initialement, a atteint 12.5 en eau salée souterraine, 13.8 en eau de mer thermorégulée et 14.2 en eau de mer naturelle. Le poids de chair sèche passe de 0.9 g initialement à respectivement 2.32g, 2.39g et 2.37g. Les dosages de Pb, Cd, Hg, Mn et As ne montent pas d'évolution entre le début et la fin de l'élevage, par contre le Fe augmente sensiblement dans les huîtres sur eau salée souterraine traitée. En fin d'élevage, une période de stockage de 4 semaines des huîtres sans nourriture, n'a pas montré de perte de qualité. Au printemps 2001, un deuxième essai sera conduit pour vérifier les résultats obtenus à l'automne 2000, confirmer le choix du milieu d'élevage et proposer les éléments permettant d'approcher les coûts de production.
Resumo:
Full Text / Article complet
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
Cette recherche vise à étudier l’impact d’interventions réalisées par les parents dans l’unité néonatale de soins intensifs. Plus spécifiquement, le premier objectif est de documenter les effets différentiels de la Méthode Mère Kangourou « MMK » accompagnée ou non du Massage en incubateur «MI » ou du Massage en Position Kangourou « MPK » et des Soins Traditionnels «ST » accompagnés ou non du massage dans l’incubateur sur la croissance physique mesurée par le poids, la taille et le périmètre crânien pendant une période de 5 et 15 jours dans l’unité néonatale et l’impact à 40 semaines d’âge gestationnel. Le second objectif est de comparer, chez des enfants qui bénéficient de la « MMK » la valeur ajoutée du « MPK » ou du «MI » sur le neuro-développement à 6 et 12 mois d’âge corrigé de l’enfant. Un échantillon total de 198 enfants et leur famille a été recruté de la façon suivante dans trois hôpitaux de Bogota. Dans chaque hôpital, 66 sujets ont été répartis aléatoirement à deux conditions. Ces hôpitaux ont été choisis afin de tester les effets de diverses conditions expérimentales et de diminuer les bais de sélection. Dans chaque hôpital, deux techniques ont été assignées aléatoirement. Il s’agit, dans le premier, de la « MMK & MPK » vs « MMK & MI ». Dans le second, « MMK sans massage » vs « MMK & MI ». Dans le troisième, « MI » a été comparé aux « ST » ce qui implique une absence de contact physique continu des bébés avec leurs parents. Les résultats rapportés dans le premier article sont à l’effet que, dans le premier hôpital, il y a un effet compensatoire de l’intervention « MMK & MPK » sur la perte physiologique du poids de l’enfant prématuré dans les 15 premiers jours de vie avec un impact sur le poids à 40 semaines d’âge gestationnel, sur la durée du portage kangourou et sur la durée d’hospitalisation totale. Aucun effet sur le périmètre crânien ou la taille n’est apparu. Dans le deuxième hôpital, aucune différence significative n’est rapportée pour le poids sauf quand l’intervention est commencée après le 10ième jours de vie alors que l’enfant « MPK» semble grossir mieux que le «MMK avec MI». Finalement, dans le troisième hôpital il n’y a aucun effet du massage sur les variables anthropométriques, le groupe avec MI grossissant moins vite avec un léger impact sur le poids à 40 semaines. Cela pourrait être dû à la perte de chaleur due à l’ouverture de l’incubateur quand l’enfant est très immature. Dans le second article, les 66 enfants de l’hôpital sont répartis aléatoirement dans le groupe « MMK & MPK» vs le groupe « MMK & MI», ont complété, à 6 et 12 mois d’âge corrigé, un test de neuro-développement, le Griffiths. Les résultats à 6 mois ne montrent aucune différence entre les 2 interventions, mais a 12 mois le IQ semble dépendant du nombre de jours d’hospitalisation de l’enfant, cette durée d’hospitalisation correspond au temps que met l’enfant à se stabiliser physiquement et correspond également au temps que mettent la mère et l’enfant à s’adapter à la méthode kangourou. Une fois, l’adaptation kangourou réussie, la dyade mère enfant sort avec l’enfant toujours en position kangourou. Le temps d’hospitalisation correspond au temps que met l’enfant à être éligible à l’apprentissage de la MMK par la mère. À 12 mois les deux groupes montrent des résultats équivalents, mais des différences positives sont apparues pour le groupe « MMK & MPK» dans les sous échelle Coordination Oculo Manuelle et Audition et Langage du test Griffiths. Dans l’ensemble, les résultats suggèrent que la pratique des deux interventions non traditionnelles peut contribuer à une meilleure croissance physique dans nos cohortes. Le gain de poids du bébé, notamment, est affecté par l’intervention MPK (Hôpital 1) ou sans l’ajout du Massage (Hôpital 2). Par ailleurs, le massage en incubateur n’a pas de différence significative en comparaison aux soins traditionnels, ces interventions ont toutefois un impact mineur (tendances) sur le neuro développement à 6 et 12 mois d’âge corrigé dans cette étude.