26 resultados para Wikis (Informatique)
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.
Resumo:
De plus en plus, la capacité de justifier les investissements devient une obligation qui incombe aux gestionnaires responsables de la formation. Dans le domaine de l'informatique utilisateur, cette responsabilité revêt une grande importance puisque les sommes investies en formation sont considérables. La présente étude répond donc aux besoins de ces gestionnaires par le développement d'outils leur permettant d'évaluer l'impact de la formation sur le personnel. De nombreuses informations de gestion leur sont ainsi transmises afin de faciliter la prise de décision à un niveau organisationnel. Dans un premier temps, notre outil d'évaluation des apprentissages leur permet de mesurer les connaissances et habiletés des apprenants au terme de la formation. Par la suite, notre outil d'évaluation et de suivi du transfert des apprentissages leur permet à la fois de mesurer et de qualifier l'utilisation de ces connaissances et habilités dans le contexte de travail. De plus, il leur permet d'identifier les principales raisons qui viennent expliquer ce transfert. Finalement, il est à noter que les outils présentés dans cet ouvrage ont été développés à l'aide de l'approche par compétences et s'adressent spécifiquement à une formation portant sur l'utilisation d'un logiciel de traitement de texte par des secrétaires. Toutefois, ces outils peuvent être adaptés à tout autre type de formation.
Resumo:
La révolution introduite par l'ordinateur est l'un des faits les plus marquants du vingtième siècle. En effet, l'ordinateur a des répercussions profondes sur de nombreux aspects de notre vie quotidienne: transactions bancaires, cueillettes de données, recherche d'information, enseignement, sciences, etc. La manière dont l'ordinateur influence notre vie soit dans notre travail ou soit dans le monde qui nous entoure n'est pas terminée. Nos jeunes n'échappent pas à cette réalité. Dans la mesure où les ordinateurs modifient notre quotidien, nos jeunes doivent acquérir une expérience pratique de ce nouvel outil qui peut influencer et changer leur façon d'apprendre. Il nous apparaît donc souhaitable que nos jeunes utilisent ce nouvel outil qu'est l'ordinateur comme aide et soutien à leur apprentissage.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Cette étude vise à identifier les caractéristiques des usagers qui les amèneraient à mieux utiliser ou à utiliser de façon plus innovatrice les technologies de l'information mises à leur disposition. Afin de répondre à cet objectif, nous étudierons, en particulier, le rôle de deux traits de personnalité (le ludisme informatique et la propension innover) comme facteurs qui influencent l’étendue de l’utilisation des logiciels de soutien à l'enseignement dans un environnement universitaire. De plus, ces traits de personnalité seront intégrés aux modèles actuels de l’acception et de l’utilisation des systèmes d’information.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Les recherches menées en éducation permettent de constater que les technologies de l'information et de la communication ont des effets positifs sur plusieurs dimensions de l'élève. Pourtant, dans ce domaine, l'implantation de la micro-informatique s'effectue lentement. Le projet de recherche trace le portrait des conditions qui favorisent l'intégration des TIC en adaptation scolaire et démontre dans quelle mesure elles sont présentes selon les perceptions des enseignants au Québec. Les sujets sont des enseignants en adaptation scolaire à la commission scolaire de Montréal (CSDM). Le questionnaire et l'entrevue semi-structurée ont été utilisés pour la collecte de données. Les résultats de l'enquête sont présentés à partir d'une analyse quantitative et qualitative. Ils démontrent que des efforts ont été déployés pour fournir aux écoles des ressources matérielles et pour développer des attitudes et perceptions positives chez les enseignants. Cependant, les enseignants réclament davantage de formation ainsi qu'un soutien technique et pédagogique continu.
Resumo:
Cette étude de cas analyse l'intervention éducative d'un enseignant du primaire qui a mis en oeuvre un dispositif didactique et pédagogique intégrant de façon systématique l'informatique scolaire à une pédagogie du projet dans le but de mieux répondre aux besoins liés à l'apprentissage d'élèves provenant d'un milieu socioéconomiquement faible.Cette étude longitudinale (1998-2001) fait ressortir l'impact de l'agir professionnel sur la réussite scolaire. La problématique de notre recherche s'inscrit dans la foulée de la réforme en cours, dont l'une des visées est de contrer le retard scolaire au primaire et le risque d'échec et d'abandon scolaire précoce au secondaire. Quatre dimensions éclairent l'implémentation du dispositif: l'équité sociale, les changements épistémologiques, une orientation vers la socialisation et le rôle des TIC pour soutenir le développement des compétences transversales. Le cadre conceptuel s'appuie sur une perspective socioconstructiviste cohérente avec la théorie de l'anthropologie culturelle de Vygotsky (1978) pour qui l'apprentissage ne se fait pas seul, mais avec l'aide de pairs plus avancés en contexte de cognition située. La médiation de l'enseignant, par sa réflexion en action , en synchronie avec les besoins immédiats de ses élèves, établit le lien entre enseignant et apprenants, pour qu'ils puissent développer un esprit d'initiative, ainsi que la responsabilité et l'autonomie pour assumer leurs apprentissages. Une méthodologie mixte interreliant des méthodes qualitatives et quantitatives a exigé un recueil de données sur des dimensions descriptives et évaluatives. Des données de deuxième ordre, issues d'une recherche FCAR (98-NT-004), ont permis de dégager des caractéristiques spécifiques à la planification, à la gestion de classe et aux comportements de l'"enseignant-cible" en contexte de pédagogie du projet. Les résultats obtenus par les 23 élèves aux examens sommatifs de 6e année témoignent de l'efficacité de l'intervention. La présente étude pourrait avoir des retombées en tant que modèle pour d'autres chercheurs intéressés à étudier l'impact des TIC comme matériel didactique. Sur le plan de la pratique, ce type d'intervention serait un moyen efficace pour contrer le décrochage scolaire chez les élèves en mobilisant leurs capacités de s'adapter avec succès à leur environnement, malgré les facteurs de risque qui pourraient les inhiber.
Resumo:
Dans le cadre des travaux du Centre d'analyse et de traitement informatique du français québécois (CATIFQ) sur la caractérisation des textes de langue publique québécoise, la présente étude porte sur le vocabulaire sociopolitique en situation officielle au Québec. Cette étude est basée sur un corpus de mémoires présentés à la Commission Bélanger-Campeau sur l'avenir politique et constitutionnel du Québec. Constitué à partir d'une norme élaborée au CATIFQ, et permettant de ce fait la comparaison des données avec d'autres corpus similaires, le corpus Bélanger-Campeau compte 250 000 occurrences et 8355 vocables. Sa richesse, la synchronie de ses données et les critères de sa constitution en font un point de repère pertinent pour la description du français québécois. À partir de ce corpus, nous avons sélectionné les vocables de trois réseaux propres au questionnement constitutionnel et identitaire faisant l'objet de la Commission Bélanger-Campeau: le réseau des groupes humains (communauté, État, nation, pays, peuple, société), le réseau des options constitutionnelles (autonomie, fédéralisme, indépendance, souveraineté, statu quo) et le réseau identitaire (anglais, anglophone, autochtone, canadien, français, francophone, immigrant, québécois). Notre cadre théorique et méthodologique s'appuie sur des travaux antérieurs, mais l'analyse des trois réseaux du corpus Bélanger-Campeau s'est faite en vase clos. Puis nous avons comparé nos résultats aux définitions de dictionnaires français et québécois, de même qu'à des recherches antérieures touchant le vocabulaire sociopolitique. Nous concluons de cette démarche l'importance d'étudier les vocables en contexte, notamment en se penchant sur la cooccurrence, pour en cerner le plus objectivement possible les nuances sémantiques. De plus, l'analyse du corpus Bélanger-Campeau a permis la description de vocables et d'acceptions propres aux contextes québécois et canadien, et souvent absents des dictionnaires consultés, ou inadéquatement définis. Enfin, l'examen des cooccurrents nous a permis d'identifier nombre de collocations propres au français d'ici et caractéristiques de notre situation sociopolitique (peuple fondateur, projet de société, société distincte, fédéralisme renouvelé, souveraineté-association, Canada anglais, rêve canadien, canadien-anglais, canadien-français et fait français).
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
L’objet d’étude de cette recherche porte sur l’utilisation des technologies de l’information et de la communication (TIC) dans un contexte d’apprentissage. Le développement de ces technologies offre de nouvelles possibilités quant aux façons de réaliser des apprentissages. L’auteure de cette recherche a élaboré un environnement tutoriel d’apprentissage en ligne afin de savoir s’il pouvait favoriser le jugement clinique des étudiantes et des étudiants en soins infirmiers au collégial.
Resumo:
Nous avons élaboré comme objectif principal de cet essai la formalisation des connaissances lors du processus de développement de nouveaux produits qui pourra par la suite être intégrée dans un logiciel de système expert et implanté dans une entreprise de haute technologie. Suite à une revue de la littérature sur laquelle s'appuie le développement de cet essai, notre démarche pour formaliser les connaissances s'est effectuée par des entrevues semi-structurées pour étudier en détail le fonctionnement de l'entreprise lors du développement d'un nouveau produit. Après avoir identifier le modèle utilisé chez Systèmes d'Informatique Philips Ltée, nous avons déterminer les points précis dans le processus de développement d'un nouveau produit où sont prises les décisions, par qui ou par quel comité et à l'aide de quelles informations. Ceci a été suivi par l'identification de six phases dans leur modèle lors du développement de nouveaux produits. Nous avons par la suite formaliser les connaissances en des règles de production pour représenter ces six phases et tout ceci a été fait grâce à la collaboration des experts du département de marketing et de recherche et développement. Suite à ceci, nous avons étudiés divers projets de développement de nouveaux produits sur le marché (matériels et logiciels) afin d'ajouter d'autres règles à notre modèle. Pour mieux visualiser ces connaissances, nous avons développé un prototype de système expert avec le logiciel GURU, prototype qui représente les deux premières phases de notre modèle. Nous souhaitons que notre prototype de démonstration soit poursuivi jusqu'à l'implantation complète du système expert et ceci avec la possibilité de modifications liées à la vie de l'entreprise.
Resumo:
Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.
Resumo:
La société a subi une évolution spectaculaire au cours de ce siècle qui s'achève. Par exemple, l'arrivée de l'électricité a fait faire un bond à la technologie et à la robotisation. L'apparition des ordinateurs a perfectionné le travail dans bien des domaines en simplifiant le classement des données, de la documentation et en facilitant tout travail de recherche. Par la suite, l'informatique et le virage vers l'internet a privilégié l'ouverture du monde vers de nouveaux horizons en permettant l'accès à tous. Une autre des grandes évolutions de la société nord-américaine fut les démarches qu'ont faites les femmes vers leur autonomie. (Collectif CLIO, 1992). Maintenant, elles s'attaquent à l'équité salariale, car selon Tremblay (1992), 60% de la croissance de la population active s'explique par l'arrivée des femmes sur le marché du travail. Par contre, en ce qui concerne les femmes, les salaires n'ont pas suivi cette croissance…
Resumo:
L'évolution très rapide de l'économie, la globalisation des marchés et l'incertitude liée aux conditions économiques obligent les organisations, autant les petites que les grandes, à faire un effort systématique pour connaître à tout moment leur situation actuelle, pour prévoir où elles seront dans quelques mois ou quelques années et pour analyser les stratégies et les opportunités en accord avec les buts et les objectifs qu’elles se sont donnés. Les entreprises se sont dotées au cours des vingt dernières années, de systèmes informatisés de plus en plus complexes afin de connaître leurs résultats financiers. Mais ces systèmes se sont graduellement alourdis au cours des ans, si bien qu'ils ne peuvent montrer de façon rapide la véritable situation de la firme. Pourtant, l’administrateur a besoin de cette information de façon instantanée. De plus, les systèmes informatisés implantés dans les entreprises n'ont pas été développés pour simuler l'avenir : le gestionnaire est souvent obligé de se fier à son instinct. Cependant, à cause de la vitesse vertigineuse à laquelle elle évolue, de la multitude de problèmes différents et complexes qui l’assaillent et de la concurrence de plus en plus difficile et féroce, l'entreprise qui n'a pas à sa disposition des outils informatiques efficaces risque de se faire dépasser par ses concurrentes. Heureusement, les derniers développements technologiques en micro et en mini-informatique permettent aux organisations de résoudre plus facilement beaucoup de leurs problèmes. L'avènement récent de logiciels spécialisés dans la livraison aux décideurs des informations essentielles à la bonne gestion et à la prise de décision permet à l'entreprise de demeurer très compétitive. Ces systèmes sont très faciles à opérer: le dirigeant a accès à l’information sans assistance technique. Ces nouveaux outils permettent au cadre de s'assurer que son organisation est en bonne santé ou, le cas échéant, de corriger les problèmes. Ces systèmes, communément appelés des tableaux de bord pour administrateurs, aident ceux-ci à analyser les tendances et à chiffrer les différentes stratégies. La présente étude vise à appliquer aux cégeps ce type de système informatique.