23 resultados para Interactive Video Instruction: A Training Tool Whose Time Has Come

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En année 408 après J.-C., l’Espagne, malgré sa position péninsulaire à la fin de l’Europe, était intégrée à une culture pan-Méditerranéenne qui s’étendait du Portugal jusqu’à la Syrie. Trois décennies n’étaient pas encore passées depuis l’instauration du Christianisme comme religion de l’état romain et l’Eglise Catholique était en pleine croissance. L’année suivante, l’Espagne entra sur une voie de transformation irrémédiable alors que les païens, avec leurs langues barbares Germaniques franchirent les Pyrénées portant la guerre et la misère aux Hispano-Romains et fondant leurs royaumes là où auparavant gouvernait l’état romain. Dans le désarroi du Ve siècle, les évêques Catholiques luttèrent pour imposer leur dominance dans les communautés et dans les coeurs des pieux. À la lumière des progrès dans l’archéologie et la qualité des éditions critiques de nos sources littéraires est venu le moment d’identifier les évêques ibériques avec une attention aux conditions régionales. Ce mémoire caractérise les évêques de l’Espagne et du Portugal et démontre les épreuves auxquelles ils firent face comme intermédiaires entre indigènes et envahisseurs, comme évangélistes parmi les païens, persécuteurs des apostates et gardiens de la romanitas à la fin du monde Antique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

« Heavy Metal Generations » is the fourth volume in the series of papers drawn from the 2012 Music, Metal and Politics international conference (http://www.inter-disciplinary.net/publishing/product/heavy-metal-generations/).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Using data from the National Longitudinal Survey of Youth (NLSY), we re-examine the effect of formal on-the-job training on mobility patterns of young American workers. By employing parametric duration models, we evaluate the economic impact of training on productive time with an employer. Confirming previous studies, we find a positive and statistically significant impact of formal on-the-job training on tenure with the employer providing the training. However, the expected net duration of the time spent in the training program is generally not significantly increased. We proceed to document and analyze intra-sectoral and cross-sectoral mobility patterns in order to infer whether training provides firm-specific, industry-specific, or general human capital. The econometric analysis rejects a sequential model of job separation in favor of a competing risks specification. We find significant evidence for the industry-specificity of training. The probability of sectoral mobility upon job separation decreases with training received in the current industry, whether with the last employer or previous employers, and employment attachment increases with on-the-job training. These results are robust to a number of variations on the base model.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente recherche de type qualitatif veut décrire, analyser et comprendre la pratique de différenciation pédagogique chez des enseignants québécois du premier cycle du secondaire. Cette pratique s’insère au cœur des programmes de formation dont la principale visée est la réussite pour tous. Cependant, elle est constituée d’un flou théorique qui la rend parfois difficile à définir et à mettre en application, particulièrement chez les enseignants du secondaire. Ce travail dresse donc le portrait de trois enseignantes du premier cycle du secondaire qui choisissent tout de même de la comprendre et de la mettre en œuvre. À ce titre, l’étude des pratiques sous l’angle du travail tel que décrit par Tardif et Lessard (1999) permet de cerner la nature complexe et composite de leur travail et de tenir compte des facteurs personnels, internes et externes qui régissent leur travail d’adaptation des programmes, appelé travail curriculaire. Ainsi, une grille d’analyse inédite, construite au regard de ces facteurs et à partir des concepts inhérents à la différenciation pédagogique, permet d’étudier trois cas de manière complète et approfondie. De manière générale, l’analyse des facteurs personnels, internes et externes à la pratique de différenciation pédagogique des enseignantes donnent des informations pertinentes sur leurs façons de différencier, sur leur motivation à différencier et sur l’influence de leur milieu de travail dans l’exercice de cette pratique. Ces résultats permettent non seulement de mieux comprendre cette pratique effectuée par des enseignants du secondaire, mais permet aussi l’élaboration des principaux facteurs pouvant faciliter sa mise en œuvre ou au contraire la limiter. Au final, les propos recueillis chez les enseignantes interrogées signalent qu’au-delà de la réussite éducative, d’autres éléments entrent en jeu dans l’exercice de cette pratique. En fait, malgré plusieurs contraintes liées aux ressources matérielles, organisationnelles et humaines, la pratique de différenciation pédagogique génère entre autres une grande source de motivation scolaire pour les élèves et contribue à augmenter la satisfaction professionnelle de ces enseignantes dans leur travail au quotidien.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche exploratoire vise à documenter, du point de vue des intervenants, les conditions nécessaires à la mise en place de projets utilisant des outils de narrativité numérique, de même que les principaux apports de ces outils à l’intervention. Ces outils peuvent être des récits numériques qui sont de courtes vidéos (deux à cinq minutes) intégrant images, musique, texte, voix et animation, ou encore de courts fichiers audio, aussi appelés podcasting ou baladodiffusion. Il peut aussi s’agir de jeux vidéo interactifs ou d’un montage vidéo à partir d’extraits de témoignages. Dans un contexte où les pratiques d’intervention, dans les services publics en particulier, sont de plus en plus normées et standardisées, une recherche qui explore des outils d’intervention recourant à la créativité s’avère des plus pertinentes. Par ailleurs, ce champ n’a été que très peu exploré en service social jusqu’à maintenant. Des entrevues semi-dirigées ont été menées auprès de huit intervenants ayant utilisé ces outils dans leur pratique. L’analyse de leurs propos met d’abord en lumière les conditions nécessaires à laalisation de ce type de projet, de même que les questions éthiques qui les accompagnent. Ensuite, du côté des principaux apports de ces outils, ils se situent, d’une part, dans le processus créatif collaboratif. Celui-ci permet d’enrichir l’intervention en donnant un espace de parole plus libre où intervenants et usagers créent des liens qui modifient le rapport hiérarchique entre aidant et aidé. D’autre part, l’attention professionnelle accordée à laalisation des produits et à leur diffusion contribue à donner une plus grande visibilité à des personnes souvent exclues de l’espace public. Ainsi, en plus d’explorer les apports d’un outil artistique à l’intervention, cette recherche permet également d’analyser les enjeux de visibilité et de reconnaissance associés à l’utilisation de médias participatifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les facteurs de risque des maladies cardiovasculaires, telle, que la détérioration du profil lipidique, deviennent plus prononcés après la ménopause, ce qui fait de la maladie coronarienne, l’une des principales causes de décès chez les femmes ménopausées. Une proportion importante de femmes prennent du poids après la ménopause en particulier dans la région abdominale entraînant par conséquent des perturbations métaboliques. Des données récentes suggèrent également que l’absence des œstrogènes observée à la ménopause favorise le développement de la stéatose hépatique. Cette dernière a été incriminée pour incriminée dans le développement de la résistance à l'insuline, et est de ce fait considérée comme une composante hépatique du syndrome métabolique. Il est impératif d'établir des stratégies visant à contrecarrer l'accumulation de graisse dans le foie et l’accroissement du tissu adipeux chez les femmes ménopausées, en tenant compte que l'utilisation de l'hormonothérapie substitutive est de nos jours moins soutenue. Les quatre études de la présente thèse ont été conduites pour tenter de fournir des informations sur le traitement et la prévention de l’augmentation de la masse graisseuse et de la stéatose hépatique qu’entraîne la suppression des œstrogènes, à travers les modifications du mode de vie (diète et exercice physique) chez la rate ovariectomizée (Ovx); un modèle animal de la ménopause. Dans les deux premières études nous nous sommes concentrés sur l’augmentation de la masse graisseuse et sa reprise suite à une perte de poids. Dans la première étude, nous avons montré que les rates Ovx qui ont suivi un programme de restriction alimentaire (FR) ont diminué significativement (P < 0.01) leur poids corporel, leur contenu en graisses intra-abdominales ainsi que leurs triacylglycérols (TAG) hépatiques, comparativement aux rates Ovx nourries à la diète normale. De plus, l’entraînement en résistance (RT) a prévenu la reprise de poids corporel ainsi que l’accroissement du tissu adipeux et l’accumulation de lipides dans le foie des rates Ovx, après l’arrêt du régime amaigrissant. Les résultats de la deuxième étude ont confirmé l'efficacité de la restriction alimentaire associée à l’entraînement en résistance (FR + RT) dans la réduction du poids corporel, des lipides dans le foie et le tissu adipeux chez les rates Ovx. Tenant compte des résultats de notre première étude, l’entraînement en résistance seulement a constitué un atout pour atténuer le poids corporel et la masse grasse reprise par les rates Ovx suite à un programme de perte de poids (FR + RT); bien que l'impact ait été moindre compaau maintien seul de la restriction alimentaire. De la même manière que la supplémentation en œstrogènes, les résultats de la troisième étude indiquent que l'entraînement en endurance mené concurremment avec l’ovariectomie a significativement atténué l'accumulation de lipides dans le foie ainsi que dans le tissu adipeux. Toutefois, l’entraînement en endurance effectué avant l'ovariectomie n'a pas protégé contre l'accumulation des graisses qu’entraîne l'ovariectomie, si celui-ci est interrompu après l'ovariectomie. Enfin, pour compléter les résultats antérieurs, nous avons montré dans la quatrième étude que l’expression des gènes impliqués dans la synthèse de lipide; SREBP-1c, SCD-1, ChREBP, et ACC dans le foie a augmenté après le retrait des œstrogènes, tandis qu’une diminution (P < 0.01) des niveaux d'ARNm de PPAR-α a été observée. De plus, l'expression hépatique des gènes des cytokines pro-inflammatoires incluant IKKβ, IL-6 ainsi que le contenu protéinique de NF-кB étaient augmentés (P < 0.01) chez les rates Ovx par rapport aux rates ayant subi une Ovx simulée (Sham). Toutes ces perturbations ont été améliorées avec la supplémentation en œstrogènes seulement, ainsi qu'avec l'entraînement en endurance seulement. Dans l'ensemble, nos résultats indiquent que l'exercice physique (en résistance ou en endurance) a un impact significatif sur la réduction de l'accumulation des lipides dans le foie et dans le tissu adipeux des rates Ovx. De plus, chez les rates Ovx, l’entraînement en endurance mimerait les effets des œstrogènes sur l'expression des gènes impliqués dans l'accumulation de lipides et l’inflammation préclinique dans le foie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche avait pour objectif d’évaluer l’effet du dispositif de formation « Zoom sur l’expertise pédagogique », ou, plus précisément, d’évaluer l’effet d’un parcours de formation créé grâce à ce dispositif et intégrant des exemples de pratiques sur vidéo sur les apprentissages et les intentions de changement de pratique d’un groupe d’enseignants du primaire relativement à la compétence professionnelle « Piloter des situations d’enseignement-apprentissage ». La réforme des programmes scolaires, qui s’installe progressivement depuis 2001, modifie considérablement les orientations en matière d’apprentissage et d’enseignement. Sa réussite repose notamment sur l’appropriation de nouvelles compétences professionnelles souvent difficiles à développer pour le personnel enseignant. À ces besoins de formation, les modalités de formation continue proposées ne semblaient répondre que partiellement. Le dispositif a été développé dans le but de soutenir le personnel enseignant dans l’appropriation de ce renouveau pédagogique et propose de nouvelles stratégies de formation basées principalement sur l’observation et l’analyse d’exemples de pratiques sur vidéo et enrichis de divers outils stimulant la réflexion sur la pratique. Sa conception s’inscrit dans un contexte d’émergence d’initiatives similaires. Néanmoins, beaucoup de questions restaient en suspens quant aux effets réels de ces dispositifs sur le développement professionnel des enseignants. Afin de réaliser une évaluation de ce dispositif, nous avons créé un parcours de formation que six enseignants ont réalisé. Ces personnes ont ensuite participé à deux entrevues semi-dirigées et ont partagé les notes prises durant la formation. Un cadre théorique a été développé, permettant de dégager trois questions de recherche : « Quels ont été les effets du dispositif de formation sur les savoirs relatifs aux composantes de la compétence ciblée ? » ; « Quels ont été les effets du dispositif de formation sur les intentions de changement de pratique des enseignants ? » ; « Comment améliorer le dispositif pour mieux soutenir le développement professionnel des enseignants ? ». Ce cadre a par la suite guidé l’analyse et l’interprétation des données recueillies. Une quantité substantielle d’informations a été obtenue permettant de mieux comprendre et documenter le rôle d’un tel dispositif de formation en ligne et des vidéos qui le composent. Nous avons pu confirmer leur effet positif sur le développement professionnel. Nous retenons notamment que les enseignants sont en mesure de mieux définir les composantes de la compétence ciblée par la formation, ils ont confirmé leur sentiment d’avoir appris, ils ont tous exprimé l'intention d’apporter des changements dans leur pratique. Tous ont grandement apprécié le parcours et ses vidéos, notamment la possibilité qu’elles leur offraient de s’identifier à des pairs et d’envisager des pistes de mise en application plus concrètes de leurs nouvelles connaissances. Par ailleurs, les commentaires et les suggestions des participants ont permis de dégager des pistes d’amélioration telles que la diminution de la quantité de vidéos, du nombre d’éléments de compétence présentés, ou l’augmentation de compléments pédagogiques accompagnant les vidéos. Ces pistes devraient toutefois être précisées et étudiées ce qui génère de nouvelles questions de recherches.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La polykystose rénale autosomique dominante (ADPKD) est une des maladies génétiques les plus communes. ADPKD se manifeste le plus souvent au stade adulte par la présence de kystes rénaux, et bien souvent de kystes hépatiques, avec une progression très variable. ADPKD mène à une insuffisance rénale: les seuls recours sont la dialyse puis la transplantation rénale. Les mutations dispersées sur les gènes PKD1 (majoritairement; la protéine polycystine-1, PC1) et PKD2 (la protéine polycystine-2, PC2) sont responsables de l’ADPKD. Le mécanisme pathogénétique de perte de fonction (LOF) et donc d’un effet récessif cellulaire est évoqué comme causatif de l’ADPKD. LOF est en effet supporté par les modèles murins d’inactivation de gènes PKD1/PKD2, qui développent de kystes, quoique in utéro et avec une rapidité impressionnante dans les reins mais pas dans le foie. Malgré de nombreuses études in vitro, le rôle de PC1/PC2 membranaire/ciliaire reste plutôt hypothétique et contexte-dépendant. Ces études ont associé PC1/PC2 à une panoplie de voies de signalisation et ont souligné une complexité structurelle et fonctionnelle exceptionnelle, dont l’implication a été testée notamment chez les modèles de LOF. Toutefois, les observations patho-cellulaires chez l’humain dont une expression soutenue, voire augmentée, de PKD1/PC1 et l’absence de phénotypes extrarénaux particuliers remet en question l’exclusivité du mécanisme de LOF. Il était donc primordial 1) d’éclaircir le mécanisme pathogénétique, 2) de générer des outils in vivo authentiques d’ADPKD en terme d’initiation et de progression de la maladie et 3) de mieux connaitre les fonctions des PC1/PC2 indispensables pour une translation clinique adéquate. Cette thèse aborde tous ces points. Tout d’abord, nous avons démontré qu’une augmentation de PKD1 endogène sauvage, tout comme chez l’humain, est pathogénétique en générant et caractérisant en détail un modèle murin transgénique de Pkd1 (Pkd1TAG). Ce modèle reproduit non seulement les caractéristiques humaines rénales, associées aux défauts du cil primaire, mais aussi extrarénales comme les kystes hépatiques. La sévérité du phénotype corrèle avec le niveau d’expression de Pkd1 ce qui supporte fortement un modèle de dosage. Dans un deuxième temps, nous avons démontré par les études de complémentations génétiques que ces deux organes reposent sur une balance du clivage GPS de Pc1, une modification post-traductionelle typique des aGPCR, et dont l’activité et l’abondance semblent strictement contrôlées. De plus, nous avons caractérisé extensivement la biogénèse de Pc1 et de ses dérivés in vivo générés suite au clivage GPS. Nous avons identifié une toute nouvelle forme et prédominante à la membrane, la forme Pc1deN, en plus de confirmer deux fragments N- et C-terminal de Pc1 (NTF et CTF, respectivement) qui eux s’associent de manière non-covalente. Nous avons démontré de façon importante que le trafic de Pc1deN i.e., une forme NTF détachée du CTF, est toutefois dépendant de l’intégrité du fragment CTF in vivo. Par la suite, nous avons généré un premier modèle humanisant une mutation PKD1 non-sens tronquée au niveau du domaine NTF(E3043X) en la reproduisant chez une souris transgénique (Pkd1extra). Structurellement, cette mutation, qui mimique la forme Pc1deN, s’est également avérée causative de PKD. Le modèle Pkd1extra a permis entre autre de postuler l’existence d’une cross-interaction entre différentes formes de Pc1. De plus, nos deux modèles murins sont tous les deux associés à des niveaux altérés de c-Myc et Pc2, et soutiennent une implication réelle de ces derniers dans l’ADPKD tou comme une interaction fonctionnelle entre les polycystines. Finalement, nous avons démontré un chevauchement significatif entre l’ADPKD et le dommage rénal aigüe (ischémie/AKI) dont une expression augmentée de Pc1 et Pc2 mais aussi une stimulation de plusieurs facteurs cystogéniques tel que la tubérine, la β-caténine et l’oncogène c-Myc. Nos études ont donc apporté des évidences cruciales sur la contribution du gène dosage dans l’ADPKD. Nous avons développé deux modèles murins qui serviront d’outil pour l’analyse de la pathologie humaine ainsi que pour la validation préclinique ADPKD. L’identification d’une nouvelle forme de Pc1 ajoute un niveau de complexité supplémentaire expliquant en partie une capacité de régulation de plusieurs voies de signalisation par Pc1. Nos résultats nous amènent à proposer de nouvelles approches thérapeutiques: d’une part, le ciblage de CTF i.e., de style chaperonne, et d’autre part le ciblage de modulateurs intracellulaires (c-Myc, Pc2, Hif1α). Ensemble, nos travaux sont d’une importance primordiale du point de vue informatif et pratique pour un avancement vers une thérapie contre l’ADPKD. Le partage de voies communes entre AKI et ADPKD ouvre la voie aux approches thérapeutiques parallèles pour un traitement assurément beaucoup plus rapide.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La capacité du système visuel humain à compléter une image partiellement dévoilée et à en dériver une forme globale à partir de ses fragments visibles incomplets est un phénomène qui suscite, jusqu’à nos jours, l’intérêt de nombreux scientifiques œuvrant dans différents milieux de recherche tels que l’informatique, l’ingénierie en intelligence artificielle, la perception et les neurosciences. Dans le cadre de la présente thèse, nous nous sommes intéressés spécifiquement sur les substrats neuronaux associés à ce phénomène de clôture perceptive. La thèse actuelle a donc pour objectif général d’explorer le décours spatio-temporel des corrélats neuronaux associés à la clôture perceptive au cours d’une tâche d’identification d’objets. Dans un premier temps, le premier article visera à caractériser la signature électrophysiologique liée à la clôture perceptive chez des personnes à développement typique dans le but de déterminer si les processus de clôture perceptive reflèteraient l’interaction itérative entre les mécanismes de bas et de haut-niveau et si ceux-ci seraient sollicités à une étape précoce ou tardive lors du traitement visuel de l’information. Dans un deuxième temps, le second article a pour objectif d’explorer le décours spatio-temporel des mécanismes neuronaux sous-tendant la clôture perceptive dans le but de déterminer si les processus de clôture perceptive des personnes présentant un trouble autistique se caractérisent par une signature idiosyncrasique des changements d’amplitude des potentiels évoqués (PÉs). En d’autres termes, nous cherchons à déterminer si la clôture perceptive en autisme est atypique et nécessiterait davantage la contribution des mécanismes de bas-niveau et/ou de haut-niveau. Les résultats du premier article indiquent que le phénomène de clôture perceptive est associé temporellement à l’occurrence de la composante de PÉs N80 et P160 tel que révélé par des différences significatives claires entre des objets et des versions méconnaissables brouillées. Nous proposons enfin que la clôture perceptive s’avère un processus de transition reflétant les interactions proactives entre les mécanismes neuronaux œuvrant à apparier l’input sensoriel fragmenté à une représentation d’objets en mémoire plausible. Les résultats du second article révèlent des effets précoces de fragmentation et d’identification obtenus au niveau de composantes de potentiels évoqués N80 et P160 et ce, en toute absence d’effets au niveau des composantes tardives pour les individus avec autisme de haut niveau et avec syndrome d’Asperger. Pour ces deux groupes du trouble du spectre autistique, les données électrophysiologiques suggèrent qu’il n’y aurait pas de pré-activation graduelle de l’activité des régions corticales, entre autres frontales, aux moments précédant et menant vers l’identification d’objets fragmentés. Pour les participants autistes et avec syndrome d’Asperger, les analyses statistiques démontrent d’ailleurs une plus importante activation au niveau des régions postérieures alors que les individus à développement typique démontrent une activation plus élevée au niveau antérieur. Ces résultats pourraient suggérer que les personnes du spectre autistique se fient davantage aux processus perceptifs de bas-niveau pour parvenir à compléter les images d’objets fragmentés. Ainsi, lorsque confrontés aux images d’objets partiellement visibles pouvant sembler ambiguës, les individus avec autisme pourraient démontrer plus de difficultés à générer de multiples prédictions au sujet de l’identité d’un objet qu’ils perçoivent. Les implications théoriques et cliniques, les limites et perspectives futures de ces résultats sont discutées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Notre recherche tente de comprendre l’évolution de la participation sociale et les nouvelles formes qu’elle prend dans la société canadienne contemporaine. La participation sociale constitue désormais un enjeu important dans les sociétés démocratiques, où la vie sociale est menacée par la logique marchande et où l’action de l’État sollicite de plus en plus l‘engagement social. Nous nous demandons ainsi comment la distribution du temps de participation sociale a évolué chez les Canadiens âgés de 25 à 49 ans, afin de saisir de quelle manière les individus concilient quotidiennement leur vie professionnelle, familiale et civique. Nous avons ainsi analysé la participation sociale à partir de la place qu’elle occupe dans l’organisation de l’emploi du temps quotidien, plutôt qu’à partir de ses déterminants. Au terme de nos analyses, nous pouvons poser deux conclusions majeures. D’abord, l’évolution entre 1992 et 1998, des activités formelles (bénévolat) et des activités informelles (entraide) se caractérise par la baisse du taux de participation. Par contre, il s’est également produit un allongement du temps de participation du bénévolat qui témoigne de l’existence d’un « noyau dur » de bénévoles. Ensuite, c’est la manière spécifique dont les individus organisent leur temps libre qui explique l’engagement social et le temps qui lui est consacré. Ceci nous fait conclure à l’influence réelle mais non totalement déterminante du temps de travail dans le fait de s’engager ou non et de consacrer de plus ou moins longues périodes à la pratique de ces activités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il a été démontré que l’hétérotachie, variation du taux de substitutions au cours du temps et entre les sites, est un phénomène fréquent au sein de données réelles. Échouer à modéliser l’hétérotachie peut potentiellement causer des artéfacts phylogénétiques. Actuellement, plusieurs modèles traitent l’hétérotachie : le modèle à mélange des longueurs de branche (MLB) ainsi que diverses formes du modèle covarion. Dans ce projet, notre but est de trouver un modèle qui prenne efficacement en compte les signaux hétérotaches présents dans les données, et ainsi améliorer l’inférence phylogénétique. Pour parvenir à nos fins, deux études ont été réalisées. Dans la première, nous comparons le modèle MLB avec le modèle covarion et le modèle homogène grâce aux test AIC et BIC, ainsi que par validation croisée. A partir de nos résultats, nous pouvons conclure que le modèle MLB n’est pas nécessaire pour les sites dont les longueurs de branche diffèrent sur l’ensemble de l’arbre, car, dans les données réelles, le signaux hétérotaches qui interfèrent avec l’inférence phylogénétique sont généralement concentrés dans une zone limitée de l’arbre. Dans la seconde étude, nous relaxons l’hypothèse que le modèle covarion est homogène entre les sites, et développons un modèle à mélanges basé sur un processus de Dirichlet. Afin d’évaluer différents modèles hétérogènes, nous définissons plusieurs tests de non-conformité par échantillonnage postérieur prédictif pour étudier divers aspects de l’évolution moléculaire à partir de cartographies stochastiques. Ces tests montrent que le modèle à mélanges covarion utilisé avec une loi gamma est capable de refléter adéquatement les variations de substitutions tant à l’intérieur d’un site qu’entre les sites. Notre recherche permet de décrire de façon détaillée l’hétérotachie dans des données réelles et donne des pistes à suivre pour de futurs modèles hétérotaches. Les tests de non conformité par échantillonnage postérieur prédictif fournissent des outils de diagnostic pour évaluer les modèles en détails. De plus, nos deux études révèlent la non spécificité des modèles hétérogènes et, en conséquence, la présence d’interactions entre différents modèles hétérogènes. Nos études suggèrent fortement que les données contiennent différents caractères hétérogènes qui devraient être pris en compte simultanément dans les analyses phylogénétiques.