991 resultados para Méthodes de recherche
Resumo:
Thèse par articles. Articles (4) annexés à la thèse en fichiers complémentaires.
Resumo:
Cette thèse porte sur l’émergence sur la scène chilienne d’un nouvel acteur dans la production du livre, acteur qui s’organise à la fin des années 1990 en se définissant lui-même en tant qu’éditeur indépendant et qui, au cours des premières années du XXIe siècle, élargit cette définition pour inclure le phénomène de l’édition autonome et le domaine de l’édition universitaire. Le point de ralliement de ces acteurs, organisés autour de l’association Editores de Chile, est la reprise et l’affirmation d’un rôle moderne des éditeurs de livres, au sens des Lumières. On peut constater l’articulation entre les revendications spécifiques du secteur et ses positions politiques sur la valeur symbolique de la production culturelle, sur son rôle en tant que facteur de construction identitaire et démocratique car l’accès aux livres ne peut pas être restreint par l’action sans contrepoids du marché. L’angle théorique que nous proposons est celui des théories des industries culturelles tout en intégrant aussi les contributions des études culturelles. En nous situant dans une perspective de l’économie politique des industries culturelles, nous chercherons à redéfinir le concept d’indépendance par le biais d’une analyse des stratégies d’unités économiques (les maisons d’édition) et des rapports entre ces unités et leurs contextes géographiques, politiques et culturels spécifiques. Nous tenons aussi en considération des éléments macrostructurels, mais en considérant que leur capacité d’influence est toujours relative et, en conséquence, doit faire l’objet d’une réévaluation en fonction des rapports de forces et des conjonctures politiques, économiques et sociales spécifiques. Nous pensons que l’indépendance n’est pas un phénomène qui n’est pas exclusif au monde de l’édition. Nous avons fait le constat qu’il existe aussi au sein des industries de l’enregistrement sonore, de l’audiovisuel et des médias comme la presse, la radio et, en moindre proportion, la télévision. En termes méthodologiques, nous proposons une approche qui combine des méthodes et des instruments quantitatifs et qualitatifs, c’est-à-dire, l’analyse des statistiques de l’édition au Chili (fréquences des titres, genres et auteurs), des entrevues semi-structurées et une analyse documentaire. Avant d’aborder la description et l’analyse de la production de livres au Chili et du sens que les éditeurs donnent à l’indépendance et à leurs prises de position dans le champ culturel, nous proposons une description historique et industrielle de l’édition du livre chilien. Cette description permet de comprendre la naissance et le développement du secteur en regard des processus politiques, économiques et sociaux du Chili et de l’Amérique latine, ainsi que sa situation actuelle en regard des nouvelles conditions politiques et économiques qui résultent du processus de globalisation et des transformations néolibérales locales et internationales. La recherche examine ensuite le caractère de la production de livres publiés au Chili entre les années 2000 et 2005 en considérant les titres produits, les auteurs et les genres. Cette analyse permet aussi d’établir des différences entre ces maisons d’édition et celles qui relèvent des grands conglomérats transnationaux de l’édition de livres. Cette analyse comparative nous permet d’établir de manière concluante des différences quant au nombre et á la diversité et l’intérêt culturel des livres publiés entre les éditeurs transnationaux et les éditeurs indépendants regroupés sous le nom de Editores de Chile. Cette analyse permet aussi d’établir des liens précis entre la production des éditeurs indépendants et leurs objectifs culturels et politiques explicites. Nous faisons ensuite état, par le biais de l’exposition et de l’analyse des entrevues réalisées avec les éditeurs, des trajectoires de ces organisations en tenant compte des périodes historiques spécifiques qui ont servi de contexte à leur création et à leur développement. Nous mettons ici en rapport ces trajectoires des éditeurs, les définitions de leurs missions et les stratégies mobilisées. Nous tenons aussi compte des dimensions internationales de ces définitions qui s’expriment dans leur participation au sein d’organisations internationales telle que l’Alliance internationale d’éditeurs indépendants (Gijón 2000 et Dakar 2003) et, spécifiquement, leur expression dans la coopération avec des maisons d’édition latino-américaines. Les entrevues et l’analyse documentaire nous permettent d‘entrevoir les tensions entre la politique culturelle de l’État chilien, en contraste avec des définitions, des objectifs et des actions politiques de Editores de Chile. Nous relions donc dans l’analyse, l’émergence de l’édition indépendante et les résistances qu’engendrent la globalisation des marchés culturels et les mouvements de concentration de la propriété, ainsi que les effets et réponses aux transformations néolibérales au plan des politiques culturelles publiques. Nous concluons alors à la nécessité d’une économie politique critique des industries culturelles qui puisse se pencher sur ces phénomènes et rendre compte non seulement de rapports entre conglomérats et indépendants et du développement des filières de la production culturelle, mais aussi du déploiement des logiques culturelles et politiques sous-jacentes, voire des projets historiques, qui se confrontent dans le champ des industries culturelles.
Resumo:
La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.
Resumo:
Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.
Resumo:
La somme romanesque que représente À la recherche du temps perdu se constitue au prix d’une « recherche » qui est à prendre au pied de la lettre, et qui instaure le sujet connaissant en savant-chercheur face à son objet de savoir. Proust fait en effet du « savoir » la condition même du talent, et fait entreprendre à son héros une exploration qui se présente en priorité comme étant une quête de savoirs. Ce travail se situe dans le sillage de l’épistémocritique qui étudie l’inscription dans le texte littéraire des savoirs en général, tout en insistant sur les savoirs qui relèvent de la science. Notre but est de dégager la posture épistémique qui caractérise le narrateur de la Recherche face aux divers savoirs qu’il récolte au cours de ses observations. Le parcours cognitif du narrateur est examiné suivant les quatre grandes étapes de sa recherche, que nous redéfinissons en termes de paradigmes : le paradigme de l’Exploration, qui définit une « épistémologie de l’observateur » ; le paradigme de la Communication, qui définit une « épistémologie de l’homme social » et une « épistémologie de l’homme moderne » ; le paradigme de l’Introspection, qui prépare à l’élaboration d’une « épistémologie du personnage intérieur » ; et enfin, le paradigme de la Vocation, qui rassemble les réponses trouvées par le narrateur à la plupart des questionnements qui auront jalonné son parcours cognitif. Ce dernier paradigme se présente sous la forme d’une « épistémologie de la création », d’une « épistémologie du réel » et d’une « épistémologie du hasard ». Car en dépit d’une démarche qui apparaît soumise aux médiations culturelles, la recherche du héros proustien se présente comme une « pensée de l’imprévisible » : fortement déterminée par la recherche cognitive du protagoniste, elle demeure pourtant irréductible à cette seule recherche. Nous dégageons, pour terminer, le statut réservé à la science et aux savoirs positifs en regard de la découverte de la vocation, mais aussi par rapport à l’élaboration d’une théorie de la création littéraire : ces deux grands domaines du savoir sont-ils considérés par Proust comme inconciliables avec une priorité évidente de l’un sur l’autre ou, au contraire, participent-ils tous deux d’une manière égale à la connaissance et à la création artistique ?
Resumo:
Les nouvelles technologies médicales contribuent aux dépenses en santé qui ne cessent de croître, alors que les budgets se trouvent limités. L’évaluation économique des technologies devraient permettre d’identifier quelles sont celles qui sont les plus rentables. Malgré cela, plusieurs technologies dont le rapport coût-efficacité reste plutôt limite ou défavorable sont utilisées en médecine moderne et remboursées par notre système public de santé. Ce mémoire se concentre sur deux technologies en santé cardiovasculaire dont le rapport coût-efficacité est plutôt limite mais qui sont fréquemment utilisées au Canada; les tuteurs médicamentés ou pharmaco-actifs et les défibrillateurs cardiaques implantables (DCI). Nous avons fait une évaluation contingente de ces technologies dans le but d’examiner si ce type d’évaluation économique complémentaire pouvait procurer un point de vue nouveau sur la valeur économique et sociétaire des ces technologies. Les résultats de ces deux évaluations indiquent que les patients accordent une grande importance aux bénéfices que procurent ces deux technologies. Nos résultats soutiennent les politiques de santé actuelles de rembourser de façon libérale ces deux technologies.
Resumo:
Introduction : La vaccination est l’une des interventions de santé publique les plus efficaces et les plus efficientes. Comme dans la plupart des pays de la région Ouest africaine, le programme national de vaccination a bénéficié du soutien de nombreuses initiatives internationales et nationales dans le but d’accroître la couverture vaccinale. La politique vaccinale du Burkina Faso s’est appuyée sur différentes stratégies à savoir: la vaccination-prospection, la «vaccination commando», le Programme élargi de vaccination (PEV) et les Journées nationales de vaccination. La couverture vaccinale complète des enfants de 12 à 23 mois a certes augmenté, mais elle est restée en deçà des attentes passant de 34,7% en 1993, à 29,3% en 1998 et 43,9% en 2003. Objectif : Le but de cette thèse est d’analyser à plusieurs périodes et à différents niveaux, les facteurs associés à la vaccination complète des enfants de 12 à 23 mois en milieu rural au Burkina Faso. Méthodes : Nous avons utilisé plusieurs stratégies de recherche et quatre sources de données : - les enquêtes démographiques et de santé (EDS) de 1998-1999 et de 2003 - les annuaires statistiques de 1997 et de 2002 - des entretiens individuels auprès de décideurs centraux, régionaux et d’acteurs de terrain, œuvrant pour le système de santé du Burkina Faso - des groupes de discussion et des entretiens individuels auprès de populations desservies par des centres de santé et de promotion sociale (niveau le plus périphérique du système de santé) et du personnel local de santé. Des approches quantitatives (multiniveau) et qualitatives ont permis de répondre à plusieurs questions, les principaux résultats sont présentés sous forme de trois articles. Résultats : Article 1: « Les facteurs individuels et du milieu de vie associés à la vaccination complète des enfants en milieu rural au Burkina Faso : une approche multiniveau ». En 1998, bien que la propension à la vaccination s’accroisse significativement avec le niveau de vie des ménages et l’utilisation des services de santé, ces 2 variables n’expliquent pas totalement les différences de vaccination observées entre les districts. Plus de 37 % de la variation de la vaccination complète est attribuable aux différences entre les districts sanitaires. A ce niveau, si les ressources du district semblent jouer un rôle mineur, un accroissement de 1 % de la proportion de femmes éduquées dans le district accroît de 1,14 fois les chances de vaccination complète des enfants. Article 2: « Rates of coverage and determinants of complete vaccination of children in rural areas of Burkina Faso (1998 - 2003) ». Entre 1998 et 2003, la couverture vaccinale complète a augmenté en milieu rural, passant de 25,90% à 41,20%. Alors que les ressources du district n’ont présenté aucun effet significatif et que celui de l’éducation s’est atténué avec le temps, le niveau de vie et l’expérience d’utilisation des services de santé par contre, restent les facteurs explicatifs les plus stables de la vaccination complète des enfants. Mais, ils n’expliquent pas totalement les différences de vaccination complète qui persistent entre les districts. Malgré une tendance à l’homogénéisation des districts, 7.4% de variation de la vaccination complète en 2003 est attribuable aux différences entre les districts sanitaires. Article 3: « Cultures locales de vaccination : le rôle central des agents de santé. Une étude qualitative en milieu rural du Burkina Faso ». L’exploration des cultures locales de vaccination montre que les maladies cibles du PEV sont bien connues de la population et sont classées parmi les maladies du «blanc», devant être traitées au centre de santé. Les populations recourent à la prévention traditionnelle, mais elles attribuent la régression de la fréquence et de la gravité des épidémies de rougeole, coqueluche et poliomyélite à la vaccination. La fièvre et la diarrhée post vaccinales peuvent être vues comme un succès ou une contre-indication de la vaccination selon les orientations de la culture locale de vaccination. Les deux centres de santé à l’étude appliquent les mêmes stratégies et font face aux mêmes barrières à l’accessibilité. Dans une des aires de santé, l’organisation de la vaccination est la meilleure, le comité de gestion y est impliqué et l’agent de santé est plus disponible, accueille mieux les mères et est soucieux de s’intégrer à la communauté. On y note une meilleure mobilisation sociale. Le comportement de l’agent de santé est un déterminant majeur de la culture locale de vaccination qui à son tour, influence la performance du programme de vaccination. Tant dans la sphère professionnelle que personnelle il doit créer un climat de confiance avec la population qui acceptera de faire vacciner ses enfants, pour autant que le service soit disponible. Résultats complémentaires : le PEV du Burkina est bien structuré et bien supporté tant par un engagement politique national que par la communauté internationale. En plus de la persistance des inégalités de couverture vaccinale, la pérennité du programme reste un souci de tous les acteurs. Conclusion : Au delà des conclusions propres à chaque article, ce travail a permis d’identifier plusieurs facteurs critiques qui permettraient d’améliorer le fonctionnement et la performance du PEV du Burkina Faso et également de pays comparables. Le PEV dispose de ressources adéquates, ses dimensions techniques et programmatiques sont bien maîtrisées et les différentes initiatives internationales soutenues par les bailleurs de fonds lui ont apporté un support effectif. Le facteur humain est crucial : lors du recrutement du personnel de santé, une attention particulière devrait être accordée à l’adoption d’attitudes d’ouverture et d’empathie vis-à-vis de la population. Ce personnel devrait être en nombre suffisant au niveau périphérique et surtout sa présence et sa disponibilité devraient être effectives. Les liens avec la population sont à renforcer par une plus grande implication du comité de gestion dans l’organisation de la vaccination et en définissant plus clairement le rôle des agents de santé villageois. Ces différents points devraient constituer des objectifs du PEV et à ce titre faire l’objet d’un suivi et d’une évaluation adéquats. Finalement, bien que la gratuité officielle de la vaccination ait réduit les barrières financières, certaines entraves demeurent et elles devraient être levées pour améliorer l’accès aux services de vaccination.
Resumo:
La cellulose et ses dérivés sont utilisés dans un vaste nombre d’applications incluant le domaine pharmaceutique pour la fabrication de médicaments en tant qu’excipient. Différents dérivés cellulosiques tels que le carboxyméthylcellulose (CMC) et l’hydroxyéthylcellulose (HEC) sont disponibles sur le commerce. Le degré de polymérisation et de modification diffèrent énormément d’un fournisseur à l’autre tout dépendamment de l’origine de la cellulose et de leur procédé de dérivation, leur conférant ainsi différentes propriétés physico-chimiques qui leurs sont propres, telles que la viscosité et la solubilité. Notre intérêt est de développer une méthode analytique permettant de distinguer la différence entre deux sources d’un produit CMC ou HEC. L’objectif spécifique de cette étude de maitrise était l’obtention d’un profil cartographique de ces biopolymères complexes et ce, par le développement d’une méthode de digestion enzymatique donnant les oligosaccharides de plus petites tailles et par la séparation de ces oligosaccharides par les méthodes chromatographiques simples. La digestion fut étudiée avec différents paramètres, tel que le milieu de l’hydrolyse, le pH, la température, le temps de digestion et le ratio substrat/enzyme. Une cellulase de Trichoderma reesei ATCC 26921 fut utilisée pour la digestion partielle de nos échantillons de cellulose. Les oligosaccharides ne possédant pas de groupements chromophores ou fluorophores, ils ne peuvent donc être détectés ni par absorbance UV-Vis, ni par fluorescence. Il a donc été question d’élaborer une méthode de marquage des oligosaccharides avec différents agents, tels que l’acide 8-aminopyrène-1,3,6-trisulfonique (APTS), le 3-acétylamino-6-aminoacridine (AA-Ac) et la phénylhydrazine (PHN). Enfin, l’utilisation de l’électrophorèse capillaire et la chromatographie liquide à haute performance a permis la séparation des produits de digestion enzymatique des dérivés de cellulose. Pour chacune de ces méthodes analytiques, plusieurs paramètres de séparation ont été étudiés.
Resumo:
Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
Introduction : La chronicité de la rhinosinusite, sa résistance aux antibiotiques, et ses exacerbations aiguës laissent croire que les biofilms sont impliqués dans la rhinosinusite chronique. Objectifs : Nous avons évalué la capacité des bactéries Pseudomonas aeruginosa, staphylocoques à coagulase négative et Staphylococcus aureus à former des biofilms par un essai in vitro, et si cette capacité de formation a un lien avec l’évolution de la maladie. Nous avons évalué in vitro l’effet de la moxifloxacine, un antibiotique utilisé dans le traitement de la rhinosinusite chronique sur des biofilms matures de Staphylococcus aureus. Méthodes : Trent et une souches bactériennes ont été isolées de 19 patients atteints de rhinosinusite chronique et qui ont subit au moins une chirurgie endoscopique des sinus. L’évolution de la maladie a été notée comme "bonne" ou "mauvaise" selon l’évaluation du clinicien. La production de biofilm a été évaluée grâce à la coloration au crystal violet. Nous avons évalué la viabilité du biofilm après traitement avec la moxifloxacine. Ces résultats ont été confirmés en microscopie confocale à balayage laser et par la coloration au LIVE/DEAD BacLight. Résultat et Conclusion : Vingt deux des 31 souches ont produit un biofilm. La production d’un biofilm plus importante chez Pseudomonas aeruginosa et Staphylococcus aureus était associée à une mauvaise évolution. Ceci suggère un rôle du biofilm dans la pathogenèse de la rhinosinusite chronique. Le traitement avec la moxifloxacine, à une concentration de 1000X la concentration minimale inhibitrice réduit le nombre des bactéries viables de 2 à 2.5 log. Ces concentrations (100 µg/ml - 200 µg/ml) sont faciles à atteindre dans des solutions topiques. Les résultats de notre étude suggèrent que l’utilisation de concentrations supérieure à la concentration minimale inhibitrice sous forme topique peut ouvrir des voies de recherche sur de nouveaux traitements qui peuvent être bénéfiques pour les patients atteints de forme sévère de rhinosinusite chronique surtout après une chirurgie endoscopique des sinus.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Cette recherche vise à étudier l'efficacité des cours d'espagnol comme langue étrangère, à partir de la perception des étudiants d’espagnol comme langue d’origine. Pour atteindre les résultats et les conclusions obtenus, cette étude qualitative compte sur la participation des répondants hispaniques qui ont appris l'espagnol à la maison, à l'école primaire, au secondaire, au cégep et/ou au collège. Les participants ont répondu à un questionnaire qui leur a permis d'exprimer leur perception à l'égard des cours d’espagnol comme langue étrangère qu'ils ont pris au cours de leur étude primaire, secondaire ou supérieure. Les résultats de cette recherche indiquent que les élèves hispaniques ne sont pas intégrés dans les classes ELE, ce qui motive les participants à poursuivre l’étude de la langue espagnole. Comme expliqué par Gardner (1985) dans sa théorie du modèle socio-éducationnel, l’acquisition des langages intervient dans un contexte culturel spécifique et elle est influencée par la croyance populaire et les différences individuelles. Ces dernières sont intégrées dans le concept du motif d'intégration, qui est composé du sens de l'intégration, de l'attitude envers la situation d'apprentissage et de la motivation. Les réponses données par les participants dans cette étude peuvent être utiles à la conception et au développement de cours et de méthodes d’apprentissage de l’espagnol pour les hispanophones d’origine. En tenant compte de leurs points de vue, les étudiantes auraient un sens plus élevé de l’intégration, ce qui influence directement leur motivation et par le fait même leur processus d’apprentissage.
Resumo:
Dans l’optique que la télésurveillance est devenue un outil indispensable en matière de sécurité, notre projet de recherche porte sur la manière dont elle est utilisée à des fins de gestion de l’ordre dans une propriété privée de masse (propriété privée que le public général est invité à visiter). Il s’agit de comprendre le rôle du centre de contrôle de télésurveillance dans la gestion d’un centre commercial. De façon plus spécifique, nous voulons décrire le fonctionnement et les objectifs des technologies de télésurveillance et les méthodes de contrôle utilisées dans un espace privé de masse. Nous voulons décrire les pratiques des agents affectés au centre de contrôle de télésurveillance ainsi que leur perception des notions de sécurité et d’ordre, avec une attention particulière accordée à la surveillance des lieux. Le site que nous avons sélectionné est un édifice situé en plein cœur du centre-ville de Montréal, où nous retrouvons des galeries commerciales abritant plusieurs restaurants et boutiques. Afin d’atteindre nos objectifs de recherche, nous avons fait plus de 150 heures d’observation participante dans le centre de contrôle de télésurveillance. Nos observations étaient complétées par des entretiens spontanés, afin de bien comprendre la dynamique et les interactions entre les agents, les autres employés et les visiteurs. Ainsi, notre matériel empirique est surtout de nature qualitative, mais nous avons complété ces données avec une grille d’analyse quantitative permettant une analyse minutieuse de l’emploi du temps des agents de sécurité à l’aide d’un fichier informatisé. Nous sommes en mesure d’établir que la surveillance dans une propriété privée de masse vise, à biens des égards, la gestion de l’image. La sécurité proprement dite est reléguée au second plan, derrière tout ce qui est relatif au marketing et à l’encouragement à la consommation. De plus, nous avons constaté que les agents de sécurité dans de tels lieux servent surtout à répondre à des besoins organisationnels ponctuels, leur quotidien n’étant guidé par aucune mission globale. Quant au centre de contrôle de vidéosurveillance, nous pouvons affirmer que son rôle est de s’assurer que toutes les activités au centre se déroulent comme convenu par les gestionnaires de l’établissement.