11 resultados para plateformes informatiques


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse décrivant l'écriture d'outils spécialisés facilitant l'analyse de grandes quantités de données provenant de technologie de séquencage haut débit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la réalité complexe d'aujourd'hui, caractérisée par une globalisation des marchés et une internationalisation accrue des échanges, les produits industriels ont souvent plus d'une origine nationale. Ce facteur constitue un attribut important dans l'évaluation de la qualité de fabrication des produits industriels et la formation de jugements évaluatifs à leur égard. L'objet principal de cette étude porte sur la distinction entre le pays de conception et le pays d'assemblage et leurs influences relatives sur les évaluations de la qualité et la valeur de l'achat des produits de nature industrielle. L'appréciation des acheteurs professionnels pour des profils d'analyse conjointe est examinée pour trois catégories de produits différents de par l'importance de leur achat et le risque qui leur est associé: systèmes informatiques, télécopieurs et stylos à bille. Chacun de ces trois produits est caractérisé par trois niveaux hiérarchiques sur cinq attributs: le pays de conception, le pays d'assemblage, la marque, le prix et la garantie accordée. 306 questionnaires ont été administrés auprès d'un échantillon probabiliste d'acheteurs industriels québécois, membres de l'Association Canadienne de Gestion des Achats (ACGA). Les résultats indiquent l'existence d'une distinction importante entre le pays de conception et celui d'assemblage et que celle-ci est plus marquée pour des pays en voie de développement. Le pays de conception et le pays d'assemblage sont les attributs les plus importants pour l'évaluation de la qualité perçue des produits et de la valeur perçue de leur achat et ce, quel que soit le niveau de complexité du produit considéré. Le prix constitue cependant le facteur le plus déterminant lorsque l'importance et le risque associé au produit sont faibles. Plus un produit suscite une implication personnelle forte, plus le nombre et l'importance des attributs déterminants augmentent. Et plus l'implication et l'importance de l'achat diminuent, plus l'acheteur industriel a recours à des compromis entre les attributs étudiés. Les implications managériales et étatiques sont discutées dans le cadre de la globalisation des marchés et du traité de libre-échange nord-américain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les perceptions et les préférences des étudiants et des étudiantes universitaires envers les différentes méthodes d'enseignement utilisées en administration, ainsi que la relation entre ces préférences et la personnalité, n'ont pas fait l'objet de beaucoup de recherche. C'est dans l'optique de combler ce vide, que la présente étude a été menée. L'importance du sujet, tant pour les universités et les écoles de gestion que pour le marché du travail, incite tous ces intervenants à coopérer davantage afin de porter toute la lumière sur ce sujet. Les universités et les écoles de gestion sont de plus en plus conscientes du rôle social qu'elles doivent jouer, elles essayent également de fournir tous les moyens pour mieux préparer les étudiants et les étudiantes aux exigences du marché du travail (Ahmed, 1989). De plus, elles sont conscientes qu'elles devraient se concerter avec le marché du travail pour offrir des produits et des services de qualité, étant donné qu'elles agissent dans un environnement concurrentiel. Dans le but de répondre aux attentes de la clientèle étudiante et pour satisfaire les besoins du marché du travail, il est nécessaire de connaître les préférences des étudiants. Dans cette étude, on a interrogé des étudiants du premier cycle universitaire en administration sur leurs attentes face à trois méthodes d'enseignement. En plus, l'étude a examiné les similitudes et les différences de perceptions et de préférences envers trois méthodes d'enseignement entre les étudiants Marocains et Québécois. Un autre objectif de cette étude est de montrer que les préférences des étudiants sont corrélées avec différents traits de la personnalité. Par la présente étude, on a pu montrer que les perceptions et les préférences des étudiants envers les trois méthodes d'enseignement suivantes: la méthode des cas, la méthode d'enseignement à l'aide d'outils informatiques et la méthode d'enseignement magistral, sont différentes. Selon les analyses, on remarque que les étudiants marocains préfèrent davantage la méthode des cas, contrairement aux étudiants québécois qui préfèrent également la méthode d'enseignement magistral et la méthode des cas. La méthode des cas est perçue par les étudiants québécois comme étant plus dynamique et exigeante, alors que les étudiants marocains la considèrent comme étant dynamique et moyennement exigeante. La méthode magistrale est perçue comme étant moins dynamique et moins exigeante par les étudiants québécois, et à un degré moindre, par les étudiants marocains. Enfin, la méthode d'enseignement à l'aide d'outils informatiques est considérée par les étudiants québécois comme étant moins dynamique et plus exigeante, alors que les étudiants marocains la considèrent comme étant moyennement exigeante est plus dynamique. En plus de ces résultats, différents traits de la personnalité sont corrélés avec les préférences pour une méthode donnée. Suite à ces conclusions, les dirigeants des universités et des écoles de gestion ont intérêt à prendre en considération les préférences des étudiants et leurs différents traits de personnalité, afin de choisir les méthodes pédagogiques qui satisfont les besoins de leur clientèle. Il faut aussi mentionner qu'une telle étude pourrait être menée dans d'autres domaines et facultés, étant donné l'importance du sujet, et ceci pour mieux répondre aux attentes des étudiantes et étudiants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évolution très rapide de l'économie, la globalisation des marchés et l'incertitude liée aux conditions économiques obligent les organisations, autant les petites que les grandes, à faire un effort systématique pour connaître à tout moment leur situation actuelle, pour prévoir où elles seront dans quelques mois ou quelques années et pour analyser les stratégies et les opportunités en accord avec les buts et les objectifs qu’elles se sont donnés. Les entreprises se sont dotées au cours des vingt dernières années, de systèmes informatisés de plus en plus complexes afin de connaître leurs résultats financiers. Mais ces systèmes se sont graduellement alourdis au cours des ans, si bien qu'ils ne peuvent montrer de façon rapide la véritable situation de la firme. Pourtant, l’administrateur a besoin de cette information de façon instantanée. De plus, les systèmes informatisés implantés dans les entreprises n'ont pas été développés pour simuler l'avenir : le gestionnaire est souvent obligé de se fier à son instinct. Cependant, à cause de la vitesse vertigineuse à laquelle elle évolue, de la multitude de problèmes différents et complexes qui l’assaillent et de la concurrence de plus en plus difficile et féroce, l'entreprise qui n'a pas à sa disposition des outils informatiques efficaces risque de se faire dépasser par ses concurrentes. Heureusement, les derniers développements technologiques en micro et en mini-informatique permettent aux organisations de résoudre plus facilement beaucoup de leurs problèmes. L'avènement récent de logiciels spécialisés dans la livraison aux décideurs des informations essentielles à la bonne gestion et à la prise de décision permet à l'entreprise de demeurer très compétitive. Ces systèmes sont très faciles à opérer: le dirigeant a accès à l’information sans assistance technique. Ces nouveaux outils permettent au cadre de s'assurer que son organisation est en bonne santé ou, le cas échéant, de corriger les problèmes. Ces systèmes, communément appelés des tableaux de bord pour administrateurs, aident ceux-ci à analyser les tendances et à chiffrer les différentes stratégies. La présente étude vise à appliquer aux cégeps ce type de système informatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet essai traite des stratégies pédagogiques utilisant des fonctionnalités disponibles dans des environnements numériques d’apprentissage (ENA) en enseignement hybride dans le réseau collégial. Les enseignantes et les enseignants du réseau collégial ont recours aux ENA en tant que médias d’enseignement et d’apprentissage depuis plusieurs années, mais les données montrent des différences importantes dans leur préférence pour les différents outils disponibles. Si la remise des notes est la plus utilisée, d’autres fonctionnalités qui ont pourtant un fort potentiel pédagogique restent peu ou pas exploitées. Parmi les facteurs qui peuvent expliquer cette relative sous-exploitation des ENA, cet essai identifie un manque de ressources pour accompagner les enseignantes et les enseignants dans l’intégration d’un environnement numérique d’apprentissage (ENA) en enseignement hybride au collégial. Pour pallier ce manque, l’essai pose comme question de recherche : « Quelles sont les stratégies d’utilisation des fonctionnalités des environnements numériques d’apprentissage (ENA) à encourager pour l'exploitation optimale de leur potentiel pédagogique en contexte d’enseignement hybride au collégial »? Le but de cet essai est donc de proposer un ensemble de pratiques optimales exploitant de la manière la plus efficace possible les fonctionnalités des ENA en enseignement hybride dans le réseau collégial. Pour y arriver, le premier objectif est de recenser et de classer des pratiques pédagogiques utilisant ces fonctionnalités. Le deuxième objectif de l’essai est d’analyser les pratiques recensées selon un cadre de référence mis au point à partir de trois sources. La première est la métarecherche que Barrette (2011, 2009, 2005) réalise pour le compte de l’Association pour la recherche au collégial; la deuxième est le modèle de la motivation scolaire de Viau (2009) et la troisième est le modèle des « valeurs ajoutées » de l’équipe de Docqs, Lebrun et Smidts (2010). L’analyse des correspondances entre les pratiques recensées et les conditions posées comme des critères d’efficacité par le cadre de référence permet d’atteindre le troisième objectif de cet essai qui est de dégager des stratégies optimales d’utilisation. Axé sur le pôle de la recherche, cet essai procède par études de cas. Son corpus est constitué de 99 récits de pratiques publiés sur le site de Profweb. La sélection de ces récits s’est faite en effectuant des recherches par mots-clés pertinents dans l’ensemble des récits publiés. L’essai réalise l’analyse des récits à partir de 17 fonctionnalités et d’une dix-huitième situation correspondant à l’utilisation combinée de plusieurs fonctionnalités au sein d’un ENA. Une synthèse des pratiques recensées pour chacune des 18 fonctionnalités dégage un schème, c’est-à-dire un ensemble type de pratiques. L’examen des 18 schèmes de pratiques révèle que certains correspondent plus que d’autres aux critères d’efficacité fournis par le cadre de référence. Ainsi, les schèmes de pratiques rapportés par les auteurs de récits dans Profweb indiquent que l’utilisation de plusieurs fonctionnalités combinées au sein d’un ENA, ou l’utilisation des forums ou celle du portfolio satisfont mieux aux critères d’efficacité que l’utilisation du courriel ou que celle de la correction numérique. Les résultats de cet essai indiquent aussi qu’il y a dans les récits une prépondérance de pratiques pédagogiques inspirées du socioconstructivisme et que dans leur ensemble, ces pratiques sont centrées sur l’apprentissage et favorisent la motivation scolaire. Les récits étudiés indiquent aussi un haut niveau de satisfaction à l’égard des équipements informatiques utilisés. En même temps, ces récits font état fréquemment d’un manque d’expérience et d’un besoin de formation de la part des enseignantes et des enseignants. Pour satisfaire le besoin de formation mentionné dans les récits, l’essai propose des pratiques optimales en matière d’utilisation des fonctionnalités d’un ENA en enseignement hybride. Une pratique optimale consiste à identifier pour chacun des schèmes de pratique les critères d’efficacité pertinents dégagés du cadre d’analyse, critères effectivement pris en compte dans les récits ou qui auraient dû l’être. L’examen des récits de pratiques révèle aussi que les critères d’efficacité ne sont pas pris en compte simultanément et qu’il existe une feuille de route, une procédure dont chacune des étapes offre l’occasion de considérer certains critères plutôt que d’autres. L’essai suggère une séquence pour la prise en compte des critères d’efficacité lors de la planification et du déroulement d’une activité pédagogique exploitant des fonctionnalités d’ENA en enseignement hybride. La confection du répertoire des 18 pratiques optimales en matière d’utilisation pédagogique des fonctionnalités d’un ENA constitue un apport nouveau et utile pour répondre au besoin des enseignantes et des enseignants de se former à une utilisation stratégique de ces outils. Un tel répertoire peut constituer le coeur d’un guide de formation et d’intervention que les conseillères et conseillers technopédagogiques du réseau collégial utiliseront avec empressement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : c-Myc est un facteur de transcription (FT) dont les niveaux cellulaires sont dérégulés dans la majorité des cancers chez l’homme. En hétérodimère avec son partenaire obligatoire Max, c-Myc lie préférentiellement les séquences E-Box (CACGTG) et cause l’expression de gènes impliqués dans la biosynthèse des protéines et des ARNs, dans le métabolisme et dans la prolifération cellulaire. Il est maintenant bien connu que c-Myc exerce aussi son potentiel mitogène en liant et inhibant différents FTs impliqués dans l’expression de gènes cytostatiques. Entre autres, c-Myc est en mesure d’inhiber Miz-1, un FT comportant 13 doigts de zinc de type Cys2-His2 (ZFs) impliqué dans l’expression de plusieurs gènes régulateurs du cycle cellulaire comprenant les inhibiteurs de CDK p15[indice supérieur INK4], p21[indice supérieur CIP1] et p57[indice supérieur KIP2]. Plus récemment, il fut démontré qu’en contrepartie, Miz-1 est aussi en mesure de renverser les fonctions activatrices de c-Myc et de prévenir la prolifération de cellules cancéreuses dépendantes de c-Myc. Ces différentes observations ont mené à la suggestion de l’hypothèse intéressante que la balance des niveaux de Miz-1 et c-Myc pourrait dicter le destin de la cellule et a permis d’établir Miz-1 comme nouvelle cible potentielle pour le développement d’agents anti-cancéreux. Malgré le fait que ces deux protéines semblent centrales à la régulation du cycle cellulaire, les mécanismes moléculaires leur permettant de s’inhiber mutuellement ainsi que les déterminants moléculaires permettant leur association spécifique demeurent assez peu documentés pour le moment. De plus, la biologie structurale de Miz-1 demeure à être explorée puisque qu’aucune structure de ses 13 ZFs, essentiels à sa liaison à l’ADN, n’a été déterminée pour l’instant. Les travaux réalisés dans le cadre cette thèse visent la caractérisation structurale et biophysique de Miz-1 dans le contexte de la répression génique causée par le complexe c-Myc/Miz-1. Nous présentons des résultats d’éxpériences in vitro démontrant que Miz-1 interagit avec c-Myc via un domaine contenu entre ses ZFs 12 et 13. De plus, nous démontrons que Miz-1 et Max sont en compétition pour la liaison de c-Myc. Ces résultats suggèrent pour la permière fois que Miz-1 inhibe les activités de c-Myc en prévenant son interaction avec son partenaire obligatoire Max. De plus, ils laissent présager que que Miz-1 pourrait servir de référence pour le développement d’inhibiteurs peptidiques de c-Myc. Finalement, nous avons réalisé la caractérisation structurale et dynamique des ZFs 1 à 4 et 8 à 10 de Miz-1 et avons évalué leur potentiel de liaison à l’ADN. Les résultats obtenus, couplés à des analyses bio-informatiques, nous permettent de suggérer un modèle détaillé pour la liaison spécifique de Miz-1 à son ADN consensus récemment identifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de l’essai est d’identifier la stratégie optimale de cotation énergétique des habitations au Québec. À partir des expériences internationales, l’essai évalue, à l’aide d’une analyse multicritère, s’il est plus optimal pour le Québec (scénario A) de continuer à coter la performance énergétique des habitations existantes dans le programme Rénoclimat actuellement en vigueur (hors transactions immobilières) ou (scénario B) d’implanter un système de cotation énergétique pour les habitations lors des transactions immobilières en mode volontaire ou (scénario C) de l’implanter en mode réglementaire. Pour réduire la consommation énergétique et les émissions de gaz à effet de serre des bâtiments, de plus en plus de pays adoptent des législations en matière de cotation énergétique lors des transactions immobilières. Or, au Québec, il existe seulement des programmes de cotation énergétique des habitations existantes hors transactions immobilières dont la participation se fait sur une base volontaire. De plus, des exigences minimales de performance énergétique réglementaires pour les habitations neuves sont en vigueur depuis 2012, mais peu de mécanismes de renforcement sont utilisés pour en assurer le respect. Globalement, selon l’analyse multicritère, dans le cas où un soutien politique est offert et où les ressources financières, techniques, humaines, informatiques et législatives sont disponibles, et ce, tout au long du développement du projet, mais aussi lors de la phase d’opération, le scénario C permet de rencontrer un maximum de bénéfices. Sinon, pour éviter d’investir des ressources humaines et financières supplémentaires, de modifier la législation et de gérer une mise en œuvre complexe, il est possible de continuer à opérer le scénario A. Par contre, ce scénario ne permet pas de développer le plein potentiel de la cotation énergétique. Pour optimiser ce scénario, il est suggéré de renforcir certains éléments du programme. Enfin, il est déconseillé d’implanter le scénario B, à moins qu’il soit temporaire et accompagné d’une annonce dès le début de l’arrivée du système de cotation énergétique en mode réglementaire. En effet, l’analyse multicritère a permis de faire ressortir que les très rares et faibles impacts positifs du scénario B ne font pas le poids face aux ressources requises pour le mettre en œuvre. Dans le cas où l’implantation du scénario C est envisagée, il importe de rappeler que pour profiter des bénéfices estimés, des ressources importantes doivent être investies afin de respecter les nombreux facteurs clés de réussite. Le potentiel du scénario C peut être déployé seulement si ces conditions sont réunies pour s’assurer de la fiabilité du système et, par conséquent, pour assurer l’acceptabilité du public.