665 resultados para Logique spatiale
Resumo:
Résumé : Dans les couverts forestiers, le suivi de l’humidité du sol permet de prévenir plusieurs désastres tels que la paludification, les incendies et les inondations. Comme ce paramètre est très dynamique dans l’espace et dans le temps, son estimation à grande échelle présente un grand défi, d’où le recours à la télédétection radar. Le capteur radar à synthèse d’ouverture (RSO) est couramment utilisé grâce à sa vaste couverture et sa résolution spatiale élevée. Contrairement aux sols nus et aux zones agricoles, le suivi de l’humidité du sol en zone forestière est très peu étudié à cause de la complexité des processus de diffusion dans ce type de milieu. En effet, la forte atténuation de la contribution du sol par la végétation et la forte contribution de volume issue de la végétation réduisent énormément la sensibilité du signal radar à l’humidité du sol. Des études portées sur des couverts forestiers ont montré que le signal radar en bande C provient principalement de la couche supérieure et sature vite avec la densité de la végétation. Cependant, très peu d’études ont exploré le potentiel des paramètres polarimétriques, dérivés d’un capteur polarimétrique comme RADARSAT-2, pour suivre l’humidité du sol sur les couverts forestiers. L’effet du couvert végétal est moins important avec la bande L en raison de son importante profondeur de pénétration qui permet de mieux informer sur l’humidité du sol. L’objectif principal de ce projet est de suivre l’humidité du sol à partir de données radar entièrement polarimétriques en bandes C et L sur des sites forestiers. Les données utilisées sont celles de la campagne terrain Soil Moisture Active Passive Validation EXperiment 2012 (SMAPVEX12) tenue du 6 juin au 17 juillet 2012 au Manitoba (Canada). Quatre sites forestiers de feuillus ont été échantillonnés. L’espèce majoritaire présente est le peuplier faux-tremble. Les données utilisées incluent des mesures de l’humidité du sol, de la rugosité de surface du sol, des caractéristiques des sites forestiers (arbres, sous-bois, litières…) et des données radar entièrement polarimétriques aéroportées et satellitaires acquises respectivement, en bande L (UAVSAR) à 30˚ et 40˚ et en bande C (RADARSAT-2) entre 20˚ et 30˚. Plusieurs paramètres polarimétriques ont été dérivés des données UAVSAR et RADARSAT-2 : les coefficients de corrélation (ρHHVV, φHHVV, etc); la hauteur du socle; l’entropie (H), l’anisotropie (A) et l’angle alpha extraits de la décomposition de Cloude-Pottier; les puissances de diffusion de surface (Ps), de double bond (Pd) extraites de la décomposition de Freeman-Durden, etc. Des relations entre les données radar (coefficients de rétrodiffusion multifréquences et multipolarisations (linéaires et circulaires) et les paramètres polarimétriques) et l’humidité du sol ont été développées et analysées. Les résultats ont montré que 1) En bande L, plusieurs paramètres optimaux permettent le suivi de l’humidité du sol en zone forestière avec un coefficient de corrélation significatif (p-value < 0,05): σ[indice supérieur 0] linéaire et σ[indice supérieur 0] circulaire (le coefficient de corrélation, r, varie entre 0,60 et 0,96), Ps (r entre 0,59 et 0,84), Pd (r entre 0,6 et 0,82), ρHHHV_30˚, ρVVHV_30˚, φHHHV_30˚ and φHHVV_30˚ (r entre 0,56 et 0,81) alors qu’en bande C, ils sont réduits à φHHHV, φVVHV et φHHVV (r est autour de 0,90). 2) En bande L, les paramètres polarimétriques n’ont pas montré de valeur ajoutée par rapport aux signaux conventionnels multipolarisés d’amplitude, pour le suivi de l’humidité du sol sur les sites forestiers. En revanche, en bande C, certains paramètres polarimétriques ont montré de meilleures relations significatives avec l’humidité du sol que les signaux conventionnels multipolarisés d’amplitude.
Resumo:
Les inventaires archéologiques représentent une part importante des travaux archéologiques qui sont effectués en sol québécois. Il s’agit d’interventions qui sont réalisées en milieux urbains ou ruraux, mais également dans des milieux forestiers parfois éloignés. Lors de ces interventions, plusieurs informations de nature spatiale sont prises, tant pour évaluer la présence ou l’absence de vestiges archéologiques que pour décrire l’environnement et les perturbations observées. Les données issues de ces travaux sont de manière générale enregistrées sur le terrain sur des supports papiers, pour être éventuellement transférées en format numérique après l’intervention, et la localisation sur le terrain est effectuée à l’aide de cartes, de la boussole et d’un appareil GPS. Ce projet cherche à évaluer la contribution potentielle d’une solution géomatique mobile qui permettrait d’assister les archéologues sur le terrain, tant au niveau de la saisie de données que de la géolocalisation sur le terrain. Afin d’identifier l’intérêt, les attentes et les besoins prioritaires d’une telle solution, une enquête a été réalisée auprès de la communauté archéologique. Subséquemment, afin de démontrer qu’une solution géomatique mobile pourrait être développée afin de soutenir les travaux archéologiques, un appareil mobile adapté aux contraintes du terrain archéologique a été identifié et un prototype d’application a été développé, sur la base des résultats de l’enquête obtenus. Il nous a par la suite été possible de faire prendre en main la solution mobile développée par une archéologue et un essai en milieu contrôlé a pu être réalisé afin d’avoir une évaluation critique de l’application et de proposer des pistes d’amélioration. Les résultats obtenus indiquent que la technologie géomatique mobile est aujourd’hui suffisamment accessible pour pouvoir bien s’adapter aux réalités de terrain et ainsi venir répondre à certains besoins des professionnels de terrain tout en demeurant abordable. Malgré quelques pistes d’amélioration qui ont été identifiées, l’enthousiasme suscité par l’application développée démontre l’intérêt des utilisateurs à intégrer ces nouvelles technologies. La démarche de développement employée est également novatrice puisqu’elle permet de développer, en l’espace de quelques mois, une application adaptée à un contexte de terrain professionnel particulier, tout en demeurant grandement modulable et pouvant s’adapter à d’autres domaines d’application.
Resumo:
La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.
Resumo:
Le mouvement derridien de la différance marque la rupture avec l'affirmation de la métaphysique de la présence, avec l'autorité du signifié transcendantal. Dans cet univers mouvant de signifiants qui se renvoient perpétuellement les uns aux autres, la logique d'univocité se disloque. La "présence" n'est que fantomatique, s'esquissant au sein d'une chaîne ininterrompue de signifiants et se laissant toujours creuser par la marque d'un irréductible manque. Face au logocentrisme, corollaire de l'affirmation de la présence, l'écriture se veut siège et articulation de la trace, d'une origine qui ne peut être que raturée, véhicule d'une irrémédiable fêlure. La volet littéraire de la déconstruction a pour but de mettre en évidence le fonctionnement de l'"indécidabilité" du discours, soit une certaine ambivalence dans la signification qui caractérise tout texte. L'objectif principal de la présente recherche est de fournir une compréhension plus approfondie de la déconstruction en insistant sur l'ancrage langagier de tout texte. Le discours philosophique n'échappe ainsi pas au mécanisme différentiel du langage et de la dérive métaphorique. La parenté entre la perspective déconstructiviste derridienne et la conception mallarméenne du langage poétique semble frappante. La mise en oeuvre, par Mallarmé, d'une dislocation de l'espace textuel, son minutieux "creusement" du vers après renoncement à toute quête d'"Idéal", la mise en relief du leurre de l'appropriation langagière, voilà qui trouve un écho particulier dans les thèses derridiennes. La "mimésis" platonicienne se voit au travers du prisme de la "mimique" mallarméenne. La déconstruction poursuit son travail de "luxation" de l'oreille philosophique, insérant les philosophèmes dans la matrice langagière, les livrant ainsi au hasard du cheminement textuel et les confrontant à l'aporie. La philosophie n'a alors d'autre choix que d'abandonner ses prétentions transcendantales. La marche de la "différance" instaure une inexorable distance qui prive le sujet de tout rapport direct avec une origine assurée et lui ôte toute possibilité de maîtrise sur le monde. Au travers de la langue, se profile la question de l'altérité, de la relation dissymétrique qui nous lie à cet "autre", ce "tout-autre" qui nous fonde et nous constitue. L'accueil inconditionnel de cette altérité nous mènera à l'étude de la "religion", la déconstruction se tournant vers le "religieux" tout en effectuant un "retournement" habile de tout credo essentialiste.
Resumo:
Pouvoir déterminer la provenance des sons est fondamental pour bien interagir avec notre environnement. La localisation auditive est une faculté importante et complexe du système auditif humain. Le cerveau doit décoder le signal acoustique pour en extraire les indices qui lui permettent de localiser une source sonore. Ces indices de localisation auditive dépendent en partie de propriétés morphologiques et environnementales qui ne peuvent être anticipées par l'encodage génétique. Le traitement de ces indices doit donc être ajusté par l'expérience durant la période de développement. À l’âge adulte, la plasticité en localisation auditive existe encore. Cette plasticité a été étudiée au niveau comportemental, mais on ne connaît que très peu ses corrélats et mécanismes neuronaux. La présente recherche avait pour objectif d'examiner cette plasticité, ainsi que les mécanismes d'encodage des indices de localisation auditive, tant sur le plan comportemental, qu'à travers les corrélats neuronaux du comportement observé. Dans les deux premières études, nous avons imposé un décalage perceptif de l’espace auditif horizontal à l’aide de bouchons d’oreille numériques. Nous avons montré que de jeunes adultes peuvent rapidement s’adapter à un décalage perceptif important. Au moyen de l’IRM fonctionnelle haute résolution, nous avons observé des changements de l’activité corticale auditive accompagnant cette adaptation, en termes de latéralisation hémisphérique. Nous avons également pu confirmer l’hypothèse de codage par hémichamp comme représentation de l'espace auditif horizontal. Dans une troisième étude, nous avons modifié l’indice auditif le plus important pour la perception de l’espace vertical à l’aide de moulages en silicone. Nous avons montré que l’adaptation à cette modification n’était suivie d’aucun effet consécutif au retrait des moulages, même lors de la toute première présentation d’un stimulus sonore. Ce résultat concorde avec l’hypothèse d’un mécanisme dit de many-to-one mapping, à travers lequel plusieurs profils spectraux peuvent être associés à une même position spatiale. Dans une quatrième étude, au moyen de l’IRM fonctionnelle et en tirant profit de l’adaptation aux moulages de silicone, nous avons révélé l’encodage de l’élévation sonore dans le cortex auditif humain.
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
Les manifestations de crise, en Côte d'Ivoire, ont été extrêmement violentes. Au cours des quinze dernières années, plus de 400 personnes sont mortes, tuées dans des affrontements avec les forces de sécurités ou des contre-manifestants. Malgré la gravité du problème, peu d’études scientifiques y sont consacrées et les rares analyses et enquêtes existantes portent, de façon unilatérale, sur l’identité et la responsabilité pénale des auteurs et commanditaires putatifs de cette violence. La présente étude s’élève contre le moralisme inhérent à ces approches pour aborder la question sous l’angle de l’interaction : cette thèse a pour objectif de comprendre les processus et logiques qui sous-tendent l’usage de la violence au cours des manifestations. Le cadre théorique utilisé dans cette étude qualitative est l’interactionnisme symbolique. Le matériel d’analyse est composé d’entrevues et de divers documents. Trente-trois (33) entrevues semi-dirigées ont été réalisées avec des policiers et des manifestants, cooptés selon la technique de la boule de neige, entre le 3 janvier et le 15 mai 2013, à Abidjan. Les rapports d’enquête, de l’ONG Human Rights Watch, sur les manifestations de crise, les manuels de formation de la police et divers autres matériaux périphériques ont également été consultés. Les données ont été analysées suivant les principes et techniques de la théorisation ancrée (Paillée, 1994). Trois principaux résultats ont été obtenus. Premièrement, le système ivoirien de maintien de l'ordre est conçu selon le modèle d’une « police du prince ». Les forces de sécurité dans leur ensemble y occupent une fonction subalterne d’exécutant. Elles sont placées sous autorité politique avec pour mandat la défense inconditionnelle des institutions. Le style standard de gestion des foules, qui en découle, est légaliste et répressif, correspondant au style d’escalade de la force (McPhail, Schweingruber, & Carthy, 1998). Cette « police du prince » dispose toutefois de marges de manœuvre sur le terrain, qui lui permettent de moduler son style en fonction de la conception qu’elle se fait de l’attitude des manifestants : paternaliste avec les foules dites calmes, elle devient répressive ou déviante avec les foules qu’elle définit comme étant hostiles. Deuxièmement, à rebours d’une conception victimaire de la foule, la violence est une transaction situationnelle dynamique entre forces de sécurité et manifestants. La violence suit un processus ascendant dont les séquences et les règles d’enchainement sont décrites. Ainsi, le premier niveau auquel s’arrête la majorité des manifestations est celui d’une force non létale bilatérale dans lequel les deux acteurs, protestataires et policiers, ont recours à des armes non incapacitantes, où les cailloux des premiers répondent au gaz lacrymogène des seconds. Le deuxième niveau correspond à la létalité unilatérale : la police ouvre le feu lorsque les manifestants se rapprochent de trop près. Le troisième et dernier niveau est atteint lorsque les manifestants utilisent à leur tour des armes à feu, la létalité est alors bilatérale. Troisièmement, enfin, le concept de « l’indignité républicaine » rend compte de la logique de la violence dans les manifestations. La violence se déclenche et s’intensifie lorsqu’une des parties, manifestants ou policiers, interprète l’acte posé par l’adversaire comme étant en rupture avec le rôle attendu du statut qu’il revendique dans la manifestation. Cet acte jugé indigne a pour conséquence de le priver de la déférence rattachée à son statut et de justifier à son encontre l’usage de la force. Ces actes d’indignités, du point de vue des policiers, sont symbolisés par la figure du manifestant hostile. Pour les manifestants, l’indignité des forces de sécurité se reconnait par des actes qui les assimilent à une milice privée. Le degré d’indignité perçu de l’acte explique le niveau d’allocation de la violence.
Resumo:
La vision joue un rôle très important dans la prévention du danger. La douleur a aussi pour fonction de prévenir les lésions corporelles. Nous avons donc testé l’hypothèse qu’une hypersensibilité à la douleur découlerait de la cécité en guise de compensation sensorielle. En effet, une littérature exhaustive indique qu’une plasticité intermodale s’opère chez les non-voyants, ce qui module à la hausse la sensibilité de leurs sens résiduels. De plus, plusieurs études montrent que la douleur peut être modulée par la vision et par une privation visuelle temporaire. Dans une première étude, nous avons mesuré les seuils de détection thermique et les seuils de douleur chez des aveugles de naissance et des voyants à l’aide d’une thermode qui permet de chauffer ou de refroidir la peau. Les participants ont aussi eu à quantifier la douleur perçue en réponse à des stimuli laser CO2 et à répondre à des questionnaires mesurant leur attitude face à des situations douloureuses de la vie quotidienne. Les résultats obtenus montrent que les aveugles congénitaux ont des seuils de douleur plus bas et des rapports de douleur plus élevés que leurs congénères voyants. De plus, les résultats psychométriques indiquent que les non-voyants sont plus attentifs à la douleur. Dans une deuxième étude, nous avons mesuré l’impact de l'expérience visuelle sur la perception de la douleur en répliquant la première étude dans un échantillon d’aveugles tardifs. Les résultats montrent que ces derniers sont en tous points similaires aux voyants quant à leur sensibilité à la douleur. Dans une troisième étude, nous avons testé les capacités de discrimination de température des aveugles congénitaux, car la détection de changements rapides de température est cruciale pour éviter les brûlures. Il s’est avéré que les aveugles de naissance ont une discrimination de température plus fine et qu’ils sont plus sensibles à la sommation spatiale de la chaleur. Dans une quatrième étude, nous avons examiné la contribution des fibres A∂ et C au traitement nociceptif des non-voyants, car ces récepteurs signalent la première et la deuxième douleur, respectivement. Nous avons observé que les aveugles congénitaux détectent plus facilement et répondent plus rapidement aux sensations générées par l’activation des fibres C. Dans une cinquième et dernière étude, nous avons sondé les changements potentiels qu’entrainerait la perte de vision dans la modulation descendante des intrants nociceptifs en mesurant les effets de l’appréhension d’un stimulus nocif sur la perception de la douleur. Les résultats montrent que, contrairement aux voyants, les aveugles congénitaux voient leur douleur exacerbée par l’incertitude face au danger, suggérant ainsi que la modulation centrale de la douleur est facilitée chez ces derniers. En gros, ces travaux indiquent que l’absence d’expérience visuelle, plutôt que la cécité, entraine une hausse de la sensibilité nociceptive, ce qui apporte une autre dimension au modèle d’intégration multi-sensorielle de la vision et de la douleur.
Resumo:
The landing ban of Raja undulata has raised misunderstanding for French fishermen, particularly for those fishing in the Norman‐Breton gulf (Southeast of ICES Division VIIe) where this species is very abundant. In this context, the RAIMOUEST project was launched as a professional and scientist partnership in order to enhance fisheries data on the main ray species caught in the Norman-Breton Gulf (Raja undulata, Raja brachyura, Raja clavata, Raja montagui and Raja microocellata). The French ray fisheries fleet was identified and a sample of fishermen involved in rays fishing was interviewed. Landings and effort data (logbooks), auctions sales and sampling at sea aboard professional fishing vessels were analysed. This working document presents the current results of this study. The French fleet concerned by ray fishing in the Normand-Breton Gulf in 2012 was composed of 289 vessels, mainly coastal trawlers/dredgers and small length size netters and longliners. R. undulata is the main ray species in this area. This species seems to form a local stock in the Normand-Breton Gulf with some continuity in the Eastern English Channel and the Western part of the Western English Channel. Three ways of analysis were used to provide an indicative level of R. undulata stock: French landings before 2009 were estimated at least at 300 tons in the Western English Channel (VIIe) and 160 tons in the Normand-Breton Gulf; sales at auctions of the Basse-Normandie fleet before 2009 were estimated at 235 tons in the western English Channel and 35 tons in the eastern English Channel (VIId); discards by the French bottom trawl fleet in ICES Division VIIe in 2012 and 2013 were estimated at 750 tons. Information on the spatial distribution of the other ray species in the English Channel was also provided. The coastal localisation of nursery for R. undulata and R. clavata was highlighted.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.
Resumo:
Cette thèse examine l’interprétation et l’application, par l’Haute Cour d'Israël (HCJ), de principes du droit international de l’occupation et du droit international des droits de la personne dans le traitement de requêtes judiciaires formulées par des justiciables palestiniens. Elle s’intéresse plus particulièrement aux jugements rendus depuis le déclenchement de la deuxième Intifada (2000) suite à des requêtes mettant en cause la légalité des mesures adoptées par les autorités israéliennes au nom d’un besoin prétendu d’accroitre la sécurité des colonies et des colons israéliens dans le territoire occupé de la Cisjordanie. La première question sous étude concerne la mesure dans laquelle la Cour offre un recours effectif aux demandeurs palestiniens face aux violations alléguées de leurs droits internationaux par l’occupant. La recherche fait sienne la position de la HJC selon laquelle le droit de l’occupation est guidé par une logique interne tenant compte de la balance des intérêts en cause, en l’occurrence le besoin de sécurité de l’occupant, d’une part, et les droits fondamentaux de l’occupé, d’autre part. Elle considère, en outre, que cette logique se voit reflétée dans les principes normatifs constituant la base de ce corpus juridique, soit que l’occupation est par sa nature temporaire, que de l’occupation découle un rapport de fiduciaire et, finalement, que l’occupant n’acquiert point de souveraineté sur le territoire. Ainsi, la deuxième question qui est posée est de savoir si l’interprétation du droit par la Cour (HCJ) a eu pour effet de promouvoir ces principes normatifs ou, au contraire, de leur porter préjudice. La réunion de plusieurs facteurs, à savoir la durée prolongée de l’occupation de la Cisjordanie par Israël, la menace accrue à la sécurité depuis 2000 ainsi qu’une politique de colonisation israélienne active, soutenue par l’État, présentent un cas de figure unique pour vérifier l’hypothèse selon laquelle les tribunaux nationaux des États démocratiques, généralement, et ceux jouant le rôle de la plus haute instance judiciaire d’une puissance occupante, spécifiquement, parviennent à assurer la protection des droits et libertés fondamentaux et de la primauté du droit au niveau international. Le premier chapitre présente une étude, à la lumière du premier principe normatif énoncé ci-haut, des jugements rendus par la HCJ dans les dossiers contestant la légalité de la construction du mur à l’intérieur de la Cisjordanie et de la zone dite fermée (Seam Zone), ainsi que des zones de sécurité spéciales entourant les colonies. Le deuxième chapitre analyse, cette fois à la lumière du deuxième principe normatif, des jugements dans les dossiers mettant en cause des restrictions sur les déplacements imposées aux Palestiniens dans le but allégué de protéger la sécurité des colonies et/ou des colons. Le troisième chapitre jette un regard sur les jugements rendus dans les dossiers mettant en cause la légalité du tracé du mur à l’intérieur et sur le pourtour du territoire annexé de Jérusalem-Est. Les conclusions découlant de cette recherche se fondent sur des données tirées d’entrevues menées auprès d’avocats israéliens qui s’adressent régulièrement à la HCJ pour le compte de justiciables palestiniens.
Resumo:
L’évaluation de l’action humanitaire (ÉAH) est un outil valorisé pour soutenir l’imputabilité, la transparence et l’efficience de programmes humanitaires contribuant à diminuer les inéquités et à promouvoir la santé mondiale. L’EAH est incontournable pour les parties prenantes de programme, les bailleurs de fonds, décideurs et intervenants souhaitant intégrer les données probantes aux pratiques et à la prise de décisions. Cependant, l’utilisation de l’évaluation (UÉ) reste incertaine, l’ÉAH étant fréquemment menée, mais inutilisé. Aussi, les conditions influençant l’UÉ varient selon les contextes et leur présence et applicabilité au sein d’organisations non-gouvernementales (ONG) humanitaires restent peu documentées. Les évaluateurs, parties prenantes et décideurs en contexte humanitaire souhaitant assurer l’UÉ pérenne détiennent peu de repères puisque rares sont les études examinant l’UÉ et ses conditions à long terme. La présente thèse tend à clarifier ces enjeux en documentant sur une période de deux ans l’UÉ et les conditions qui la détermine, au sein d’une stratégie d’évaluation intégrée au programme d’exemption de paiement des soins de santé d’une ONG humanitaire. L’objectif de ce programme est de faciliter l’accès à la santé aux mères, aux enfants de moins de cinq ans et aux indigents de districts sanitaires au Niger et au Burkina Faso, régions du Sahel où des crises alimentaires et économiques ont engendré des taux élevés de malnutrition, de morbidité et de mortalité. Une première évaluation du programme d’exemption au Niger a mené au développement de la stratégie d’évaluation intégrée à ce même programme au Burkina Faso. La thèse se compose de trois articles. Le premier présente une étude d’évaluabilité, étape préliminaire à la thèse et permettant de juger de sa faisabilité. Les résultats démontrent une logique cohérente et plausible de la stratégie d’évaluation, l’accessibilité de données et l’utilité d’étudier l’UÉ par l’ONG. Le second article documente l’UÉ des parties prenantes de la stratégie et comment celle-ci servit le programme d’exemption. L’utilisation des résultats fut instrumentale, conceptuelle et persuasive, alors que l’utilisation des processus ne fut qu’instrumentale et conceptuelle. Le troisième article documente les conditions qui, selon les parties prenantes, ont progressivement influencé l’UÉ. L’attitude des utilisateurs, les relations et communications interpersonnelles et l’habileté des évaluateurs à mener et à partager les connaissances adaptées aux besoins des utilisateurs furent les conditions clés liées à l’UÉ. La thèse contribue à l’avancement des connaissances sur l’UÉ en milieu humanitaire et apporte des recommandations aux parties prenantes de l’ONG.
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2016.