981 resultados para Effet-personnage
Resumo:
MicroARN (miARN) ont récemment émergé comme un acteur central du gène réseau de régulation impliqués dans la prise du destin cellulaire. L'apoptose, un actif processus, par lequel des cellules déclenchent leur auto-destruction en réponse à un signal, peut être contrôlé par les miARN. Il a également été impliqué dans une variété de maladies humaines, comme les maladies du cœur, et a été pensé comme une cible pour le traitement de la maladie. Tanshinone IIA (TIIA), un monomère de phenanthrenequinones utilisé pour traiter maladies cardiovasculaires, est connu pour exercer des effets cardioprotecteurs de l'infarctus du myocarde en ciblant l'apoptose par le renforcement de Bcl-2 expression. Pour explorer les liens potentiels entre le miARN et l'action anti-apoptotique de TIIA, nous étudié l'implication possible des miARN. Nous avons constaté que l'expression de tous les trois membres de la famille miR-34, miR-34a, miR-34b et miR-34c ont été fortement régulée à la hausse après l'exposition soit à la doxorubicine, un agent endommageant l'ADN ou de pro-oxydant H2O2 pendant 24 heures. Cette régulation à la hausse causé significativement la mort cellulaire par apoptose, comme déterminé par fragmentation de l'ADN, et les effets ont été renversés par les ARNs antisens de ces miARN. Le prétraitement des cellules avec TIIA avant l'incubation avec la doxorubicine ou H2O2 a empêché surexpression de miR-34 et a réduit des apoptose. Nous avons ensuite établi BCL2L2, API5 et TCL1, en plus de BCL2, comme les gènes nouveaux cibles pour miR-34. Nous avons également élucidé que la répression des ces gènes par MiR-34 explique l'effet proapoptotique dans les cardiomyocytes. Ce que la régulation positive de ces gènes par TIIA realisée par la répression de l'expression de miR-34 est probable le mécanisme moléculaire de son effet bénéfique contre ischémique lésions cardiaques.
Resumo:
Les gangs de rue suscitent aujourd’hui l’intérêt de nombreux chercheurs en raison de la menace qu’ils semblent poser à la société et ses institutions. En effet, depuis quelques années, les Services Correctionnels du Québec connaissent une hausse du nombre de personnes incarcérées associées aux gangs de rue et plusieurs questionnements sont soulevés face à la recrudescence de ces groupes en prison. Peu de recherches se sont penchées sur la question des gangs de rue en prison, alors que ceux-ci semblent être à la source de plusieurs problèmes aigus dans les institutions carcérales. Ainsi, ces derniers sont souvent associés à la criminalité et à la violence, que ce soit dans les médias ou dans la littérature scientifique et semblent être la source de plusieurs inquiétudes de la part du grand public; considérés comme imprévisibles et violents, ils font peur. Groupes diversifiés et difficiles à saisir, leur étude se veut non seulement primordiale vu leur nature, mais nécessaire afin d’en saisir la complexité et pouvoir agir, que ce soit au niveau de la prévention, de la gestion ou encore de la répression. Ce mémoire vise donc la compréhension de l’expérience des membres de gangs de rue dans les prisons provinciales québécoises. Dans ce cadre, nous avons procédé par une approche qualitative au moyen d’entretiens de type qualitatif menés auprès de détenus considérés par les services correctionnels comme étant proches ou membres de gangs de rue. Les vingt-et-une entrevues menées nous ont permis d’approfondir et de saisir le vécu de ces derniers en détention. De ces entretiens, trois grandes dimensions sont ressorties, soit l’organisation sociale des gangs de rue en prison, les conditions de détention difficiles dans lesquelles évoluent ces groupes ainsi que leur fonctionnement en prison. Nos analyses nous ont permis de dégager certains constats. À leur arrivée en prison, les individus affiliés aux gangs de rue sont doublement étiquetés, et se retrouvent dans des secteurs de détention spécifiques où les conditions sont particulièrement difficiles à vivre. Dans ce contexte, les gangs de rue tendent à reproduire en prison certains attributs associés aux gangs de rue, notamment une certaine structure et hiérarchie organisationnelle et un esprit de cohésion. Il ressort ainsi de notre étude que cette solidarité semble permettre aux gangs de rue de s’adapter à l’environnement hostile que représente la prison. Toutefois, cette solidarité nous parait être un obstacle ou du moins une difficulté inhérente à la prise en charge et à la gestion des gangs de rue en prison.
Resumo:
À partir du projet d’écriture d’une chronique que Céline met en avant lorsqu’il parle de son œuvre dans l’après-guerre, ce mémoire examine l’hypothèse selon laquelle le genre des chroniques médiévales fait, dans Nord, l’objet d’une réécriture permanente et déterminante pour la version de la Seconde Guerre mondiale de Céline. La notion d’horizon d’attente de Jauss permet d’abord de démontrer comment Nord reconstruit le discours testimonial et l’éthos de la vérité qui fondent la légitimité de chroniqueurs comme Villehardouin ou Clari afin d’accréditer une version illégitime des événements de 39-45. Au récit magnifié de la « Libération », Céline oppose en effet une chronique de l’épuration et un témoignage sur la vie quotidienne dans l’Allemagne de 1944. Idéologiquement nationalistes, les chroniques médiévales forment une lignée de la francité à partir de laquelle Céline crée une fiction politique passéiste qui projette sur les événements de 39-45 la géopolitique d’une Europe médiévale afin de cautionner les partis pris d’extrême droite de l’auteur. Par ailleurs, Nord accentue la propension autobiographique de certaines chroniques et la confond avec une lignée de mémorialistes disgraciés. Ceux-ci lui fournissent le plaidoyer pro domo qui orchestre toute la rhétorique d’autojustification de l’écrivain dans l’après-guerre : s’autoproclamer victime de l’histoire afin de justifier a posteriori les pamphlets antisémites et ainsi s’exonérer de tout aveu de culpabilité. Enfin, Céline qualifie Nord de « roman » par référence à la part d’affabulation des chroniqueurs. Pour représenter l’histoire en une Apocalypse advenue sans justice divine et sans héros, Nord procède en effet à une réactivation des genres fictionnels comme la légende, l’épique et le chevaleresque qui s’entremêlaient à l’histoire dans les Chroniques de Froissart. Cette réécriture entre fabula et historia est donc d’abord une création de romancier qui, dans le contexte de crise de la fiction de l’après-guerre, procède à un épuisement du roman par l’histoire.
Resumo:
Ce travail a permis de démontrer que l’électrofilage, ainsi que l’électronébulisation, sont des méthodes faciles et efficaces de préparation de complexes entre des polymères et des petites molécules. En effet, la plupart des méthodes de préparation de complexes donnent des mélanges inhomogènes à cause de la cristallisation cinétiquement favorisée des petites molécules. Or, un mélange inhomogène peut être très difficile à caractériser. Dans ce travail, l’électrofilage a été utilisé pour la première fois avec succès pour obtenir des nanofils de complexe entre le poly(oxyde d’éthylène) (PEO) et le NaSCN (PEO-NaSCN) ainsi qu’entre le PEO et l’hydroquinone. L’électronébulisation a été utilisée pour obtenir du complexe entre la polycaprolactone (PCL) et l’urée. L’électrofilage n’était pas possible pour le système PCL-urée parce que la solubilité n’était pas suffisante pour atteindre la viscosité minimale requise pour l’électrofilage. L’électronébulisation peut donc complémenter l’électrofilage et rendre la technique applicable à encore plus de systèmes. Les systèmes ont été caractérisés par spectroscopie infrarouge (FT-IR), par diffraction de rayons X (XRD), par calorimétrie différentielle à balayage (DSC) et par microscopies optique et électronique à balayage.
Resumo:
L’objectif de ce mémoire est d’examiner les nombreuses associations qui existent entre les conditions de l’organisation du travail, les traits de personnalité et la détresse psychologique au travail. La question de recherche principale était : est-ce que les cinq grands traits de personnalité (Big Five personality traits) ont un effet modérateur sur la relation entre les conditions de l’organisation du travail et la détresse psychologique. De nombreuses autres questions ont aussi été considérées. Pour répondre aux vingt-et-une hypothèses proposées dans cette recherche, nous avons utilisé des données secondaires d’une étude transversale de 395 employés d’un service de police municipal. À la suite d’analyses multivariées, nous avons pu observer quatre associations significatives. Concernant les conditions de l’organisation du travail, nous avons trouvé que les demandes psychologiques en milieu de travail augment la détresse psychologique, tandis que le support d’un superviseur la diminue. En ce qui concerne, les traits de personnalité, nous avons trouvé qu’être névrotique (neuroticism) augmente la détresse psychologique. Finalement, nous avons trouvé un effet modérateur du trait de personnalité, être consciencieux (conscientiousness), sur la relation entre les demandes psychologiques et la détresse psychologique. Bref, nos résultats nous indiquent que les cinq grands traits de personnalité (Big Five personality traits) ont une influence mitigée sur la santé mentale en milieu de travail.
Resumo:
Le présent mémoire se consacre à la question des revendications normatives des peuples autochtones en droit international. On y constate que la reconnaissance de ces dernières représente un défi important autant pour les institutions internationales que pour la philosophie libérale qui en constitue le fondement. Cette reconnaissance sera graduellement admise par les institutions internationales majeures préoccupées par les droits humains. Un corpus normatif international spécifique et exclusif aux autochtones sera ainsi développé pour répondre à leurs aspirations et besoins. La définition de l’identité autochtone permet d’exposer cette particularité de traitement des autochtones en droit international. Elle se fonde sur deux axes. Le premier est culturel, suggérant une différence autochtone fondée sur une conception holistique du monde, laquelle est intimement liée au territoire. Le deuxième axe est historique; il fait appel à une longue présence sur un lieu, parfois qualifiée d’immémoriale, en tous les cas antérieure au contact avec un envahisseur qui mènera à leur situation actuelle de marginalisation. Ces fondements identitaires se trouvent à la source des justifications des revendications normatives autochtones. Cependant, ces fondements posent des problèmes de qualification difficiles à concilier avec la diversité des bénéficiaires des droits des autochtones. Ils entraînent également des difficultés importantes au regard de la théorie politique, laquelle s’efforce de réconcilier les revendications autochtones avec le libéralisme et les structures politiques actuelles. Une réconciliation entre les peuples autochtones et les États soulève en effet de délicates questions de légitimité et de justice. Afin d’éviter les pièges d’une autochtonie confinée dans un paradigme culturel et historique, S. J. Anaya propose le concept d’autodétermination comme fondement unique des revendications autochtones. Ce concept doit cependant lui-même faire face à un défi de conciliation avec les structures politiques existantes. Nous verrons que s’il permet de poser les jalons d’une nouvelle relation politique, le droit à l’autodétermination des peuples autochtones semble cependant incapable de dépasser les fondements de la culture et de l’histoire inhérents à l’identité autochtone.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
On assiste, depuis les années 80, à une multiplication des engagements des opérateurs et des organisations internationales pour la mise en oeuvre de pratiques responsables dans le secteur touristique. Face à cette production exponentielle de chartes et de codes de bonne conduite, la question doit être posée de la réalité de leur altruisme. En effet, l’analyse de la littérature sur la responsabilité sociale des entreprises démontre amplement qu’elles sont avant tout les premières bénéficiaires de tels engagements. Ainsi, la promulgation de chartes et de codes de bonne conduite, qui permet le maintien de l’activité d’exploitation touristique, apparaît plus comme un moyen pour les entreprises d’apparaître éthiquement correctes et de se donner bonne conscience que comme une prise en considération réelle des demandes et des intérêts des populations et des territoires exploités.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Depuis maintenant quelques décennies, les conseillers en génétique jouent un rôle de plus en plus important dans le domaine de la génétique médicale. Leur apport ainsi que l’importance de leur rôle sont aujourd’hui incontestables. Leur statut juridique, cependant, demeure incertain et requiert une analyse approfondie. En effet, n’étant pas reconnue par le Code des professions du Québec, la pratique du conseil génétique se trouve conséquemment privée de la protection octroyée par ce Code aux autres professionnels, notamment celle ayant trait au titre et à l’exclusivité des actes. Devant ce statu quo et dans l’optique de la protection du public, l’étude de la responsabilité civile du conseiller en génétique s’avère nécessaire. Trois obligations principales ressortent de cette analyse, soit les obligations de compétence, de renseignement et de confidentialité. En ce qui a trait aux conséquences juridiques de la non-reconnaissance, elles ne sont pas négligeables. En vérité, l’inertie du législateur québécois floue la relation qu’a le conseiller en génétique avec les autres membres de son équipe multidisciplinaire, et ce, surtout en ce qui a trait à la délimitation des actes qu’il peut prodiguer. En effet, ce dernier risque d’empiéter sur certains aspects de la pratique médicale et infirmière, engendrant ainsi sa responsabilité pénale. Finalement, il s’est avéré important de chercher des pistes de solutions étrangères pouvant se transposer au Québec. Le cas de la France se trouve à être un exemple pertinent, puisque le législateur français a reconnu législativement le conseiller en génétique en tant que professionnel et a protégé tant le titre que l’exclusivité des actes de ce dernier.
Resumo:
Differentes études ont montré que la sensibilité au Ca2+ du canal KCa3.1, un canal potassique indépendant du voltage, était conférée par la protéine calmoduline (CaM) liée de façon constitutive au canal. Cette liaison impliquerait la région C-lobe de la CaM et un domaine de $\ikca$ directement relié au segment transmembranaire S6 du canal. La CaM pourrait égalment se lier au canal de façon Ca2+ dépendante via une interaction entre un domaine de KCa3.1 du C-terminal (CaMBD2) et la région N-lobe de la CaM. Une étude fut entreprise afin de déterminer la nature des résidus responsables de la liaison entre le domaine CaMBD2 de KCa3.1 et la région N-lobe de la CaM et leur rôle dans le processus d'ouverture du canal par le Ca2+. Une structure 3D du complexe KCa3.1/CaM a d'abord été générée par modélisation par homologie avec le logiciel MODELLER en utilisant comme référence la structure cristalline du complexe SK2.2/CaM (PDB: 1G4Y). Le modèle ainsi obtenu de KCa3.1 plus CaM prévoit que le segment L361-S372 dans KCa3.1 devrait être responsable de la liaison dépendante du Ca2+ du canal avec la région N-lobe de la CaM via les résidus L361 et Q364 de KCa3.1 et E45, E47 et D50 de la CaM. Pour tester ce modèle, les résidus dans le segment L361-S372 ont été mutés en Cys et l'action du MTSET+ (chargé positivement) et MTSACE (neutre) a été mesurée sur l'activité du canal. Des enregistrements en patch clamp en configuration ``inside-out`` ont montré que la liaison du réactif chargé MTSET+ au le mutant Q364C entraîne une forte augmentation du courant, un effet non observé avec le MTSACE. De plus les mutations E45A et E47A dans la CaM, ont empêché l'augmentation du courant initié par MTSET+ sur le mutant Q364C. Une analyse en canal unitaire a confirmé que la liaison MTSET+ à Q364C cause une augmentation de la probabilité d'ouverture de KCa3.1 par une déstabilisation de l'état fermé du canal. Nous concluons que nos résultats sont compatibles avec la formation de liaisons ioniques entre les complexes chargés positivement Cys-MTSET+ à la position 364 de KCa3.1 et les résidus chargés négativement E45 et E47 dans la CaM. Ces données confirment qu'une stabilisation électrostatique des interactions CaM/KCa3.1 peut conduire à une augmentation de la probabilité d'ouverture du canal en conditions de concentrations saturantes de Ca2+.
Resumo:
Le but de cette étude est de proposer une conceptualisation de la résilience familiale en tant que processus au sein de couples dont la femme est atteinte d’insuffisance cardiaque (IC). D’année en année, cette maladie cardiaque chronique afflige non seulement un nombre croissant de femmes mais tout autant leur partenaire de vie. On reconnaît de plus en plus que l’expérience de ces femmes diffère de celle de leur homologue masculin. Quant à l’expérience de leur conjoint et celle en tant que couple, ces dernières demeurent toujours peu abordées dans les écrits. Les couples constitués d’une femme atteinte d’IC doivent affronter de nombreuses difficultés inhérentes à l’IC qui peuvent les amener à faire preuve de résilience familiale. Pour atteindre notre but, une approche par théorisation ancrée a été utilisée. Les données ont été recueillies à l’aide d’entrevues semi-structurées conjointes auprès de 12 couples, d’un questionnaire sociodémographique et de notes de terrain. L’analyse de ces données a permis de proposer cette conceptualisation de la résilience familiale en tant que processus au sein de ces couples. L’IC au féminin est une expérience empreinte de difficultés pour les couples. Ils font face au choc encouru par le lot de bouleversements liés à l’IC qui perturbent à jamais tous les plans de leur vie conjugale. Devant une telle situation de vie aussi déplorable, ils sont appelés à s’engager dans un processus de résilience familiale. Cet engagement s’actualise par la mise en place de maintes stratégies en majorité conjugales, sauf quelques-unes qui relèvent de chaque membre des couples, et ce, selon deux perspectives de la résilience familiale. En effet, les couples rebondissent, selon la première perspective, en faisant face au choc de façons individuelle et conjugale. Sur le plan individuel, les membres tendent à se prendre en main tout en conservant leur propre autonomie. Pour ce faire, les femmes atteintes d’IC prennent, d’une part, le contrôle de l’IC et de ses manifestations et, d’autre part, soin de leur personne sur les plans physique et psychologique. Prendre ce contrôle devient possible en gérant leur énergie, en découvrant des astuces et en se responsabilisant face à l’IC. Parallèlement, les conjoints privilégient une seule et unique stratégie individuelle, soit de s’ouvrir à d’autres façons de faire. Quant au plan conjugal, les couples tendent à préserver à la fois leur autonomie et leur complicité à travers l’expérience liée à l’IC. A cette fin, ils font place à la réciprocité du prendre soin et s’activent à solidifier et réitérer leur autonomie conjugale en s’ouvrant aux ressources familiales et communautaires et en dosant la place laissée à l’IC au sein de leur couple. Selon la seconde perspective, les couples rebondissent, cette fois, en ressortant grandis, et ce, en découvrant de nouvelles façons de faire et en donnant un sens à leur expérience liée à l’IC. Pour découvrir de nouvelles façons, ils s’adonnent ensemble à des activités revisitées. Pour donner un sens, ils relativisent les bouleversements liés à l’IC qui s’actualisent par ces stratégies : dresser un bilan de la vie conjugale/familiale, adopter des leitmotive propices, et finalement, découvrir et se laisser porter par la magie des petits-enfants. À notre avis, les connaissances qui découlent de cette conceptualisation de la résilience familiale en tant que processus contribuent à l’avancement de connaissances dans le domaine des sciences infirmières. Cet apport de connaissances devrait aider les infirmières à mieux comprendre ce processus et contribuer au renouvellement des pratiques infirmières auprès des couples aux prises avec l’IC au féminin.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
Quelle est la nature des représentations que se font les gens des catégories apprises? Il est généralement accepté que le type de tâche d’apprentissage a une influence sur la réponse à cette question. Ceci étant dit, la majorité des théories portant sur les processus de catégorisation élaborées durant les dernières décennies a porté presqu’exclusivement sur des tâches de classifications d’exemplaires. Le mémoire présenté ici avait quatre objectifs principaux. Le premier était de vérifier si une tâche d’apprentissage de catégories implicites par classifications mène davantage à l’intégration de dimensions diagnostiques qu’un apprentissage par inférences. Le deuxième était de vérifier si une tâche d’apprentissage de catégories implicites par inférences entraine davantage l’intégration de dimensions typiques qu’un apprentissage par classifications. Le troisième était d’évaluer si un effet de rehaussement du prototype (« prototype enhancement effect ») pouvait être observé dans le cadre d’un apprentissage par inférences. Le quatrième était de clarifier quelle est la mesure de tendance centrale qui présente réellement un effet de rehaussement du prototype : le mode, la médiane ou la moyenne. Suite aux résultats obtenus, les implications pour trois théories portant sur les processus de catégorisation sont discutées. Les trois théories sont celles des prototypes, des exemplaires et des frontières décisionnelles.