378 resultados para validité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato esplora l’attitudine delle organizzazioni nei confronti dei processi di business che le sostengono: dalla semi-assenza di struttura, all’organizzazione funzionale, fino all’avvento del Business Process Reengineering e del Business Process Management, nato come superamento dei limiti e delle problematiche del modello precedente. All’interno del ciclo di vita del BPM, trova spazio la metodologia del process mining, che permette un livello di analisi dei processi a partire dagli event data log, ossia dai dati di registrazione degli eventi, che fanno riferimento a tutte quelle attività supportate da un sistema informativo aziendale. Il process mining può essere visto come naturale ponte che collega le discipline del management basate sui processi (ma non data-driven) e i nuovi sviluppi della business intelligence, capaci di gestire e manipolare l’enorme mole di dati a disposizione delle aziende (ma che non sono process-driven). Nella tesi, i requisiti e le tecnologie che abilitano l’utilizzo della disciplina sono descritti, cosi come le tre tecniche che questa abilita: process discovery, conformance checking e process enhancement. Il process mining è stato utilizzato come strumento principale in un progetto di consulenza da HSPI S.p.A. per conto di un importante cliente italiano, fornitore di piattaforme e di soluzioni IT. Il progetto a cui ho preso parte, descritto all’interno dell’elaborato, ha come scopo quello di sostenere l’organizzazione nel suo piano di improvement delle prestazioni interne e ha permesso di verificare l’applicabilità e i limiti delle tecniche di process mining. Infine, nell’appendice finale, è presente un paper da me realizzato, che raccoglie tutte le applicazioni della disciplina in un contesto di business reale, traendo dati e informazioni da working papers, casi aziendali e da canali diretti. Per la sua validità e completezza, questo documento è stata pubblicato nel sito dell'IEEE Task Force on Process Mining.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è la trattazione della materia oscura partendo dalle evidenze sperimentali, ripercorrendo i possibili costituenti e riportando dati relativi a rivelazioni dirette ed indirette. Il primo capitolo è dedicato alla discussione delle due più importanti evidenze della presenza di materia oscura, ossia le curve di rotazione ed il Bullet Cluster, che risultano entrambe interazioni di tipo gravitazionale. Si provvede inoltre a fornire le due più plausibili soluzioni in grado di spiegare i risultati ottenuti dalle osservazioni sperimentali e a discutere la loro validità come modello per la descrizione di tali fenomeni. Il capitolo successivo è volto all'esposizione delle possibili particelle che compongono la materia oscura, discutendo quali siano le più probabili, e alla spiegazione della loro creazione nell'Universo primordiale. La terza parte è dedicata alle rilevazioni dirette, consistenti nello scattering fra particelle di materia oscura e nuclei, ed in particolare all'analisi del modello dei neutralini. Vengono poi riportati nello stesso capitolo i risultati di tali rilevazioni, con riferimento agli esperimenti CDMS II, XENON100 e LUX. Nel quarto capitolo si tratteranno i risultati delle rilevazioni indirette, ossia osservazioni di processi derivanti dall'annichilazione di materia oscura, e verranno riportati i risultati degli esperimenti più importanti, fra cui i più recenti sono Fermi-LAT e CTA (ancora in sviluppo). L'ultimo paragrafo è riservato ad un breve riassunto dei risultati e delle ipotesi trattate, per raccogliere i dati più importanti e fornire una visione generale della materia oscura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt porté à l’évaluation du risque de récidive chez les délinquants ayant une déficience intellectuelle (DI) a notablement augmenté depuis les 10 dernières années. D’ailleurs, certains croient que les instruments utilisés pour mesurer le risque chez les auteurs d’infractions sexuelles neurotypiques peuvent s’appliquer aux auteurs d’infractions sexuelles ayant une DI tandis que d’autres appuient l’idée d’utiliser et de développer des mesures actuarielles propres à ces individus. Trois objectifs ont été posés pour tenter d’éclaircir ces deux visions, soit 1) Comparer les taux de récidive entre les deux groupes d’auteurs d’infractions sexuelles (ayant une DI et neurotypiques), en plus de déterminer lequel récidive plus rapidement sur une courte période de temps, 2) Analyser la validité prédictive de huit instruments actuariels (et de la PCL-R) auprès d’un échantillon d’auteurs d’infractions sexuelles ayant une DI et 3) Analyser la composition des instruments par domaines (Knight et Thornton, 2007). L’échantillon est composé de 550 auteurs d’infractions sexuelles dont 54 ont une DI. Les résultats suggèrent que les deux groupes d’auteurs d’infractions sexuelles (neurotypiques et ayant une DI) présentent des taux de récidive similaires. Un nombre restreint d’instruments semblent par contre efficaces chez les auteurs d’infractions sexuelles ayant une DI. De ce fait, le SVR-20 s’est révélé avoir une validité prédictive pour la récidive sexuelle, le RMC, le RMV et le MnSOST-R pour la récidive violente et le VRAG pour la récidive non violente. Il est toutefois justifié de se questionner sur la manière d’évaluer le risque chez cette clientèle particulière. L’analyse de la composition des instruments semble importante puisque certains domaines pourraient prédire différemment la récidive chez les auteurs d’infractions sexuelles ayant une DI. Une grande partie des facteurs pouvant être utiles dans la prédiction de la récidive ne semblent toujours pas avoir été identifiés, repoussant ainsi la création d’instruments propres aux délinquants ayant une DI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les conseillers d’orientation (c.o.) en milieu scolaire ont plusieurs rôles à remplir auprès des élèves, entre autres la réponse aux demandes des élèves, le maintien de l’accès à une documentation pertinente et l’accompagnement dans une meilleure connaissance de soi et du monde du travail (Dupont, Gingras et Marceau, 2002a). Pour ce faire, plusieurs moyens sont à leur disposition, dont l’évaluation psychométrique (OCCOQ, 2013). Un concept qui pourrait utile de mesurer auprès des adolescents est la maturité vocationnelle (Jordaan et Heyde, 1979). Des instruments de mesure évaluant la maturité vocationnelle existent déjà, mais aucun d’entre eux ne semble convenir parfaitement à la réalité du Québec, emmenant la création d’un nouvel outil, le Questionnaire de maturité vocationnelle (QMV). L’objectif de ce mémoire est de vérifier les propriétés psychométriques de l’échelle affective du QMV. Les participants de l’étude sont 1 164 adolescents québécois âgés entre 14 et 18 ans (moyenne : 15,30 ans), provenant de 14 écoles secondaires. Pour ce qui est du niveau scolaire des participants, 511 (43,9 %) sont en 3e secondaire, 303 (26 %) sont en 4e secondaire et 350 (30,1 %) sont en 5e secondaire. Les résultats obtenus appuient la fidélité et la validité de l’instrument de mesure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude fait suite aux expériences professionnelles vécues par le chercheur dans le cadre de ses activités départementales. Celui-ci s’est engagé, pendant deux ans (2002-2004), dans le processus de révision du programme de Techniques d’orthèses et de prothèses orthopédiques du Collège Montmorency, qui venait de faire l’objet d’une évaluation (2001) mettant en lumière plusieurs problématiques. Le principal défi de cette révision de programme consistait à remanier le programme actuel, un des premiers à avoir subi la transformation vers un programme par objectifs et standards en 1996, pour en assurer la pertinence, la cohérence, la validité et la crédibilité. Les nombreux changements apportés ont grandement modifié le plan de formation original, notamment au niveau des objectifs ministériels, des grandes compétences locales et de la grille de cours. Les changements les plus tangibles pour ses protagonistes résident cependant dans la nouvelle approche par compétence et dans ses nouvelles stratégies pédagogiques. Après trois ans d’implantation et deux ans de consolidation, la question fondamentale à laquelle cette étude tente de répondre est donc la suivante: les stratégies pédagogiques, et surtout les stratégies visant le développement de la pensée critique, élaborées et utilisées dans le cadre des cours d’intervention clinique de 3ème année dans le programme de TOP de Montmorency, sont-elles pertinentes et efficaces pour développer les compétences professionnelles et intellectuelles nécessaires à la pratique de la profession d’orthoprothésiste? Le premier chapitre de cette étude décrit les différents contextes, professionnels et pédagogiques, de la profession d’orthoprothésiste et de son évolution. Il présente les nombreuses mouvances ayant influencé les orientations du nouveau programme et de ses stratégies pédagogiques. On y aborde, en conséquence, la problématique ainsi que les raisons qui ont poussé le chercheur à vouloir conduire cette étude. Le deuxième chapitre détermine le cadre conceptuel duquel relève cette étude. Comme les critères d’observation du développement des compétences professionnelles et intellectuelles utilisés sont tirés de recherches sur la pensée critique et la métacognition, cette section en définit les principales caractéristiques de même que leurs applications. Ce chapitre présente aussi une définition des concepts pédagogiques de base utilisés, comme les notions de connaissances et de compétence, ainsi qu’une description des particularités des cours de la troisième année du programme de TOP. Enfin, il se termine par une définition opérationnelle de tous les concepts essentiels à la compréhension de l’étude et par l’explicitation de ses objectifs spécifiques. Le troisième chapitre élabore la méthodologie nécessaire à la réalisation de cette étude. L’approche méthodologique qualitative est présentée ainsi que le paradigme épistémologique interprétatif dont elle s’inspire. La population et l’échantillon y sont définis et on donne aussi un aperçu du déroulement de l’étude. La description des techniques et des instruments de collecte de données représente la principale section de ce chapitre. On expose les résultats de la consultation des collègues professionnels, en lien avec le premier objectif spécifique, de même que l’explication des différents axes de triangulation et la justification de chacun des instruments de collecte en lien avec les deux derniers objectifs spécifiques. Le quatrième chapitre explicite l’analyse et l’interprétation des résultats obtenus lors de l’application des différents instruments de collecte de données en lien avec les deux derniers objectifs spécifiques. Les observations du chercheur et de ses collègues sont formulées ainsi que les conclusions mitigées qui en découlent. On y présente également les opinions exprimées par les élèves et l’enthousiasme avec lequel ils ont perçu leur évolution professionnelle et intellectuelle, à la suite de cette troisième année dans le programme de TOP. Une comparaison des deux perspectives, soit celle des professeurs et celle des élèves, permet de mettre en évidence des améliorations à apporter aux stratégies pédagogiques, particulièrement au plan de leur application pratique. La conclusion détermine l’atteinte des objectifs général et spécifiques de l’étude, confirmant, de façon générale, la pertinence et l’efficacité des stratégies pédagogiques visant le développement des compétences professionnelles et intellectuelles. On y explore les retombées, particulièrement les améliorations à apporter aux stratégies pédagogiques, mais aussi l’utilisation de ses instruments par d’autres programmes techniques pour évaluer leurs propres stratégies pédagogiques. On y propose également des recommandations quant aux suites à donner à l’étude. La principale utilité de cette étude aura été de dépasser la simple évaluation intuitive des stratégies pédagogiques utilisées par le département, et de permettre une évaluation fidèle et valide de leur pertinence et de leur efficacité. Elle développe une méthodologie simple et efficace qui pourrait être reprise par d’autres programmes techniques en proie aux mêmes interrogations. Finalement, son originalité réside dans ses multiples axes de triangulation, ainsi que dans les perspectives exprimées par tous les intervenants du domaine professionnel de l’orthoprothèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en oeuvre de l’approche par compétences (APC) dans les programmes de formation au Québec a suscité un lot de changements dans les pratiques d’enseignement et d’évaluation durant les deux dernières décennies. Cette approche a occasionné un renouvellement des programmes d’études. Maintenant, les programmes d’études ciblent le développement des compétences. Le renouveau de l’enseignement est accompagné par la modification de certains articles du Règlement sur le régime des études collégiales (RREC), on y ajoute une nouvelle exigence de sanction des études pour les programmes collégiaux. Chacun des programmes d’études collégiales doit désormais mettre en place une activité synthèse d’évaluation des apprentissages. Cette activité doit se situer à la fin du parcours de formation et témoigner de l’intégration des compétences et des apprentissages essentiels réalisés dans l’ensemble du programme d’études. L’épreuve synthèse de programme (ÉSP) est sous la responsabilité des collèges et elle est encadrée par la politique institutionnelle d’évaluation des apprentissages (PIEA) de chaque établissement. Cette imposition ministérielle est toutefois peu documentée et laisse une grande latitude aux programmes d’études quant aux choix de la stratégie, aux modalités de passation et d’évaluation. Ceci amène le programme Technologie de radio-oncologie du collège Ahuntsic à se questionner sur la validité de leur ÉSP. Cette recherche porte sur le thème de l’ÉSP d’études collégiales. La problématique s’articule autour du fait qu’il est possible de créer une ÉSP qui s’appuie sur les principes de l’évaluation certificative des apprentissages, mais qui ne permet pas d’attester de l’atteinte des compétences de l’ensemble du programme d’études. Par conséquent, le premier objectif de cette recherche vise l’expérimentation d’un outil de validation de l’ÉSP. Le deuxième objectif consiste à analyser les résultats d’expérimentation et de bonifier l’outil de validation au regard des commentaires des participantes et des participants. Dans le cadre du présent essai, un outil de validation de l’ÉSP a été mis au point et mis à l’essai à travers une recherche-expérimentation, qui repose sur une approche méthodologique qualitative et une posture épistémologique de recherche. L’outil de validation de l’ÉSP est inspiré des travaux du Pôle de l’Est (1996). Il propose une série de questions regroupées selon cinq thématiques pour que les enseignantes et les enseignants du cours porteur de l’ÉSP puissent poser un diagnostic sur l’ÉSP de leur programme d’études. Chaque thématique est accompagnée d’une grille d’évaluation à échelle descriptive pour faciliter la réflexion sur les forces, les limites et reconnaître les correctifs devant être apportés à l’ÉSP. Un plan de travail est également suggéré, facilitant ainsi les travaux à entrevoir pour assurer l’amélioration de l’ÉSP. L’expérimentation de l’outil de validation de l’ÉSP par quatre équipes enseignantes a permis de recueillir des résultats à partir des réponses à un questionnaire électronique et à une entrevue téléphonique semi-dirigée, ceci en tenant compte des considérations éthiques. Ces résultats ont été analysés, compilés et comparés pour aider à concevoir une version finale de l’outil de validation de l’ÉSP. La version finale de l’outil de validation de l’ÉSP intègre les propositions d’amélioration émises par les quatre équipes d’enseignantes et d’enseignants qui ont accepté d’expérimenter l’outil. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur des travaux. Les commentaires tels que l’ajout d’une piste de réflexion concernant la charge de travail associé à la réalisation de l’ÉSP, l’ajout d’une définition concernant une caractéristique de l’évaluation certificative ainsi que la correction de deux critères d’évaluation inscrits dans la grille d’évaluation à échelle descriptive, ont favorisé la conception d’un outil de validation de l’ÉSP qui répond davantage aux besoins des programmes d’études collégiales. Les résultats obtenus portent à croire que l’outil de validation de l’ÉSP est complet et utile. Il peut être utilisé autant par les programmes préuniversitaires que les programmes techniques. Bien qu’il propose une démarche simple, il nécessite une concertation en équipe programme et il peut s’avérer aidant que cette démarche soit soutenue par une conseillère ou un conseiller pédagogique. De cette recherche-expérimentation sont ressorties des pistes de recherches future notamment la conception d’un outil de validation pour les épreuves terminales de cours. De plus, une connaissance plus approfondie des notions concernant l’évaluation certificative peut soulever également des questionnements concernant les différentes stratégies d’évaluation à envisager dans le cadre d’une ÉSP.