877 resultados para Logique linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de notre travail était de conduire une étude exploratoire sur la mise en place et le déroulement de la relation matrimoniale au sein de couples philippino-canadiens mariés par correspondance, afin de comprendre les mécanismes sociaux qui régissent l’expérience de vie de ces couples. Nous nous inspirons de Constable pour qui la relation au sein du mariage par correspondance peut être une relation amoureuse même si la logique de désir des deux partenaires est fortement imbriquée dans un contexte historique et culturel. Nous poursuivons la réflexion de Constable sur la relation amoureuse en nous appuyant sur l’analyse de Simmel sur le processus de socialisation entre les individus et le phénomène de l’individualisation au sein des sociétés capitalistes. Nous explorons également comment le couple marié par correspondance crée ce que Kaufmann appelle le contrat amoureux à travers sa correspondance, sa rencontre, son quotidien et son avenir, et comment ce contrat influence les interactions entre les deux membres du couple, ainsi que celles entre le couple et le reste de la société. Dans ce mémoire sur le mariage par correspondance, nous nous intéresserons au quotidien de quatre couples philippino-canadiens mariés par correspondance vivant à Montréal et dans la région, à travers une perspective inspirée du sociologue George Simmel. Nous avons effectué des entretiens, sous forme de récit de vie et utilisé la méthode de l’ethnosociologie pour analyser leur discours. Nos résultats démontrent que le contrat amoureux influence les couples mariés par correspondance au cours des phases successives de leur relation et de leur vie commune. La construction sociale de leur réalité de couple, bâtie sur les sentiments amoureux et le travail au quotidien pour assurer le fonctionnement et la stabilité du couple, permet de passer outre d’éventuelles raisons initiales pratiques pour se marier. Malgré des inégalités, comme la division sexuée du travail et des revenus, l’agentivité de l’épouse est à l’œuvre lors de la planification de la rencontre, la première rencontre physique, l’installation au Canada et l’établissement de la vie commune et le processus de planification du couple. Le contrat amoureux et la construction sociale du couple offrent à l’épouse la possibilité de réduire les inégalités et de gagner une indépendance personnelle. Le retour aux Philippines est important dans la conversation conjugale, notamment au niveau de la planification à long terme du couple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’implantation de programmes probants dans les milieux d’intervention peut comporter son lot de difficultés pour les gestionnaires ainsi que les intervenants en contexte de réadaptation pour adolescents. En effet, les contraintes auxquelles peuvent être confrontés les milieux de pratique mènent parfois à la modification des programmes, ceci en vue de faciliter leur implantation. Il devient alors important de documenter ainsi qu’identifier l’effet des éléments associés à la fidélité d’implantation lorsque les programmes d’intervention sont évalués. En plus d’évaluer l’effet du degré d’exposition au programme cognitif-comportemental implanté dans les unités d’hébergement du Centre jeunesse de Montréal – Institut universitaire (CJM-IU) sur l’ampleur des troubles de comportement des adolescentes, ce mémoire propose une nouvelle piste de recherche. Puisque la recherche empirique ne permet pas encore d’identifier les conditions selon lesquelles il serait possible de modifier les programmes d’intervention qui sont adoptés dans le contexte de la pratique, cette étude propose d’élaborer une logique d’exposition au programme qui s’inspire des principes d’intervention efficace élaborés par Andrews et ses collègues (1990). Cette approche permettrait d’adapter le niveau d’intervention aux caractéristiques de la clientèle, et ce, tout en s’assurant de l’efficacité du programme cognitif-comportemental. L’échantillon de cette étude est donc constitué de 74 adolescentes hébergées au CJM-IU pour une durée de six mois. Les résultats indiquent d’abord que les activités du programme cognitif-comportemental ont été appliquées de façon plutôt irrégulière et bien en deçà de la fréquence initialement prévue, ce qui rend bien compte des difficultés à implanter des programmes en contexte de pratique. Les résultats suggèrent aussi une diminution de l’ampleur des troubles de comportement six mois après l’admission au CJM-IU pour les adolescentes qui étaient caractérisées par une ampleur des troubles de comportement plus marquée au moment de leur admission et qui ont complété un plus grand nombre d’auto-observations durant leur placement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stimulation électrique transcrânienne à courant direct (tDCS) est une technique non invasive de neuromodulation qui modifie l’excitabilité corticale via deux grosses électrodes de surface. Les effets dépendent de la polarité du courant, anodique = augmentation de l’excitabilité corticale et cathodique = diminution. Chez l’humain, il n’existe pas de consensus sur des effets de la tDCS appliquée au cortex somatosensoriel primaire (S1) sur la perception somesthésique. Nous avons étudié la perception vibrotactile (20 Hz, amplitudes variées) sur le majeur avant, pendant et après la tDCS appliquée au S1 controlatéral (anodale, a; cathodale, c; sham, s). Notre hypothèse « shift-gain » a prédit une diminution des seuils de détection et de discrimination pour la tDCS-a (déplacement vers la gauche de la courbe stimulus-réponse et une augmentation de sa pente). On attendait les effets opposés avec la tDCS-c, soit une augmentation des seuils (déplacement à droite et diminution de la pente). Chez la majorité des participants, des diminutions des seuils ont été observées pendant et immédiatement suivant la tDCS-a (1 mA, 20 min) en comparaison à la stimulation sham. Les effets n’étaient plus présents 30 min plus tard. Une diminution du seuil de discrimination a également été observée pendant, mais non après la tDCS-c (aucun effet pour détection). Nos résultats supportent notre hypothèse, uniquement pour la tDCS-a. Une suite logique serait d’étudier si des séances répétées de tDCS-a mènent à des améliorations durables sur la perception tactile. Ceci serait bénéfique pour la réadaptation sensorielle (ex. suite à un accident vasculaire cérébral).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. L’objectif est de comprendre comment les intervenants en relation d’aide et les agents des forces de l’ordre composent avec la violence au travail et le stress lié à l’imputabilité. Un cadre théorique basé sur l’identité professionnelle est proposé afin de comprendre la modulation de la santé psychologique au travail et testé via le Professional Quality of Life des intervenants en protection de la jeunesse. Les facteurs de prédiction de la banalisation de la violence au travail et des impacts psychologiques de cette banalisation sont également étudiés. Méthodologie. Un sondage mené auprès d’un échantillon représentatif constitué de 301 intervenants en protection de la jeunesse a permis d’examiner le Professional Quality of Life. Les effets de l’exposition à la violence en milieu de travail, à l’exposition au matériel traumatique et du stress lié à l’imputabilité sur la fatigue de compassion ont été analysés à l’aide d’équation structurelle. Les effets indirects attribuables au genre, au soutien organisationnel perçu, à l’adhésion à l’identité professionnelle, aux stratégies d’adaptation et à la confiance en ses moyens pour gérer un client agressif ont été mesurés. Pour l’examen des facteurs de prédiction de la banalisation de la violence au travail, les résultats d’un sondage mené auprès de 1141 intervenants en relation d’aide et des forces de l’ordre ont été analysés à l’aide de régression linéaire. L’analyse des réponses des 376 intervenants de cet échantillon ayant rapporté avoir été perturbé par un acte de violence au travail a permis de mesurer l’impact de la banalisation sur les conséquences psychologiques suite à une victimisation au travail. Les effets indirects attribuables à la banalisation de la violence ont été mesurés. Des analyses différenciées en fonction du sexe ont également été menées. Résultats. L’exposition à la violence, le sentiment d’imputabilité et l’évitement amplifiaient la fatigue de compassion chez les intervenants en protection de la jeunesse sondés. Les attitudes masculines, l’adhésion à l’identité professionnelle, la confiance en ses moyens pour gérer les clients agressifs l’atténuaient. Quant aux facteurs de prédiction de la banalisation de la violence au travail, les participants masculins étaient plus enclins que les femmes à la normaliser. Les agents des forces de l’ordre percevaient davantage la violence comme tabou que les intervenants en relation d’aide. Les facteurs organisationnels avaient tous un effet négatif sur le tabou entourant la violence au travail. Finalement, l’âge, les victimisations antérieures, les blessures graves et percevoir la violence au travail comme un tabou augmentaient le nombre de conséquences psychologiques suite à une victimisation. Les analyses différenciées en fonction du sexe ont identifié des facteurs de prédiction spécifiques aux hommes et aux femmes. Implications. Lors de déploiement de stratégies organisationnelles afin d’aider les employés à gérer avec les stress liés au travail, les organisations doivent considérer l’identité professionnelle de leur travailleur ainsi que des différences en fonction du sexe et du genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalité des femmes vivant avec le VIH (FVVIH) et désireuses d’avoir un enfant soulève un ensemble d’enjeux de santé publique et de promotion de la santé. Les études réalisées jusqu’à maintenant se sont surtout orientées sur les dimensions épidémiologiques et biomédicales de la maternité en contexte de VIH. Peu d’entre elles ont cependant tenu compte des expériences et des besoins du point de vue des FVVIH mais surtout de l’importance et des significations qu’elles accordent à la maternité. Le projet de maternité contribue à leur sens de l’existence et constitue une modalité de transformation du rapport au VIH et d’auto-transcendance. Cette perspective en tant que stratégie de promotion de la santé n’a pas été non plus suffisamment explorée. L’objectif général de cette thèse, à partir d’un cadre théorique fondé sur les approches féministes de la construction sociale de la maternité, des représentations du risque et des stratégies d’adaptation à la maladie, est d’analyser les expériences de maternité chez des FVVIH montréalaises. Au plan méthodologique, cette thèse s’appuie sur l’analyse qualitative secondaire d’entrevues, réalisées auprès de 42 FVVIH d’origine canadienne-française, africaine et haïtienne et recrutées dans des milieux hospitalier et communautaire. Ces entrevues portent sur leurs expériences quotidiennes en relation avec le VIH, leurs enjeux sociaux, leur famille et leurs relations interpersonnelles. Les données ont été analysées et interprétées selon les étapes de la théorie ancrée avec validation inter-juges. Une analyse typologique a aussi été effectuée pour dégager les modèles de maternité présents dans les discours à partir de deux types d’analyses à savoir, la « méthode relationnelle centrée sur la voix » et celle de « la logique d’action ». Trois articles scientifiques, présentant les résultats de l’analyse, ont été soumis. Le premier article décrit les modèles idéologiques de la maternité dans cette population (croissance personnelle ; réalisation sociale ; accomplissement de soi et de complétude) et ses répercussions sur la gestion du VIH (traitements, dévoilement, soins aux enfants). Le second article dégage la manière dont les femmes, selon leur modèle idéologique de la maternité, s’approprient les informations et les conseils provenant des intervenants de la santé et construisent le risque biologique associé à la maternité dans le contexte du VIH. Il cerne aussi les stratégies utilisées pour réaliser leur projet reproductif en conformité ou non avec les injonctions biomédicales. Le troisième article décrit les façons dont le projet de maternité oriente le rapport au VIH, le sens de l’existence et les expériences d’auto-transcendance des femmes (préserver un statut, un rôle et une image sociale ; transformer le rapport à la mort ; faciliter l’acceptation et la transformation du rapport à la maladie ; donner un sens et une direction à l’existence). À partir d’une réflexion sur l’articulation entre les données présentées dans les trois articles, un modèle théorique intégrateur est proposé. Les retombées de cette étude sur la recherche et l’intervention dans une perspective de promotion de la santé sont esquissées. Des pistes de transfert et de partage des connaissances sont aussi proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wilson Harris créée dans son roman Le palace du paon un espace de transformation intellectuelle d’une nature inédite. Cet espace se confond avec la matrice narrative de son roman. Celle-ci permet la génèse de l’identité guyanaise, non pas à partir des vestiges pré-coloniaux, ni grâce aux récits des historiens des vainqueurs mais avec des ingrédients philosophiques et littéraires de nature à transformer l’étoffe même de notre imaginaire et énergie créative. Il utilise pour ce faire la répétition comme stratégie narrative permettant de rompre la linéarité chronologique qui joint passé, présent et avenir. Ainsi faisant, il déjoue toutes les attentes de ses lecteurs les habituant ainsi à ce que Derrida appelle la logique spectrale qui permet l’influence mutuelle entre passé et présent. Ce travail est l’exploration des mécanismes de ce lâcher prise imaginatif mais aussi de toutes les voix qui répètent, à travers le temps et les continents, cet appel à l’hospitalité inconditionnelle envers l’Autre, c'est-à-dire une ouverture envers le paradoxal, le multiple, le différent en soi et en dehors de soi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À travers cette recherche, nous explorons la logique au fondement de la genèse et de lřévolution du travail social en Haïti. En effet, lřanalyse des résultats de cette étude qui pose la question des conditions sociales dřémergence du travail social en Haïti ainsi que de son évolution, en mobilisant un ensemble de données documentaires et de données dřentrevues (n = 9), suggère que le développement comme principe de vision du monde incarné à la fois sous forme dřinstitution et sous forme de structures mentales constitue lřopus operantum au fondement de la genèse du travail social en Haïti ainsi que de son évolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.