170 resultados para Critère
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.
Resumo:
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.
Resumo:
L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.
Resumo:
La comparaison de certaines institutions fondamentales de la responsabilité professionnelle avec les outils développés par la « médecine fondée sur les faits », paradigme émergent en matière de pratique clinique, permet de mettre en lumière l’unité conceptuelle variable de certaines notions partagées par la médecine et le droit. Ces observations prennent une acuité particulière alors que la faute, telle que généralement conçue par le champ de la responsabilité médicale, pourrait se révéler perméable aux conceptions de la « bonne pratique clinique » sous-tendues par la médecine fondée sur les faits. Cette perspective pourrait se révéler utile à l’analyse de ce que l’auteur Daniel Jutras a qualifié de « crise conceptuelle » de la responsabilité médicale.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Dans ce mémoire, on étudie les extensions galoisiennes finies de C(x). On y démontre le théorème d'existence de Riemann. Les notions de rigidité faible, rigidité et rationalité y sont développées. On y obtient le critère de rigidité qui permet de réaliser certains groupes comme groupes de Galois sur Q. Plusieurs exemples de types de ramification sont construis.
Resumo:
Le présent travail s’interroge quant au niveau de protection offert par la structure actuelle du droit international à l’ensemble de la population LGBT en vertu des normes juridiques de non-discrimination. Il questionne par le fait même la nécessité de créer une convention internationale spécifique contre la discrimination faite en fonction de l’orientation sexuelle au sein du système onusien des droits de la personne. Afin de le déterminer, une analyse bipartite est proposée. L’évolution de la notion d’orientation sexuelle au sein du droit international de 1975 à aujourd’hui expose dans un premier temps l’applicabilité de la norme de non-discrimination à l’ensemble de la population, et ce, malgré la polarisation de la communauté internationale sur la question. Par la suite, la jurisprudence du Comité des droits de l’homme en matière d’orientation sexuelle illustre la mise sur pied d’un régime de protection des minorités sexuelles modulé par les tractations politiques présentes sur la scène internationale. Ce mémoire conclut que la protection de la population LGBT ne nécessite pas la création une convention internationale contre la discrimination faite en fonction de l’orientation sexuelle, mais plutôt l’imposition d’une garantie universellement applicable de la norme juridique de non-discrimination à tous les droits fondamentaux reconnus par le système des traités des Nations Unies.
Resumo:
No abstract.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Bloom (1968) et Keller (1968) élaborèrent presque simultanément leur modèle d'organisation de l'enseignement. Ces modèles, la pédagogie de la maîtrise (mastery learning) et le système d'enseignement personnalisé (personalized system of instruction), quoique s'appuyant sur des contextes théoriques différents, possèdent plusieurs caractéristiques communes et fournissent un traitement pédagogique différencié selon le rendement démontré par l'élève. Les recherches entreprises sur les deux modèles, depuis la fin des années soixante, peuvent être divisées en deux courants de recherches. Un de ces courants évalue l'influence globale des modèles sur des variables comme le rendement scolaire, le degré de rétention de l'apprentissage, l'intérêt envers le contenu pédagogique, le concept de soi, le temps consacré à l'apprentissage, etc. Les premiers résultats des écrits expérimentaux de ce courant de recherche semblent convergés. Kulik, Jaska et Kulik (1978), dans une recension des écrits expérimentaux sur le système d'enseignement personnalisé appliqué au niveau collégial et universitaire, concluent que l'application de ce système entraine une amélioration du rendement scolaire et du niveau de rétention de l'apprentissage. Block et Burns (1976) parviennent à des conclusions semblables dans leur recension des écrits expérimentaux sur l'utilisation des deux modèles du niveau élémentaire au niveau universitaire. Un autre courant de recherche s'est appliqué à isoler l'effet spécifique des différentes composantes des modèles sur le rendement scolaire (Block et Burns, 1976; Kulik, Jaska et Kulik, 1978). L'effet spécifique des différentes composantes des modèles sur d'autres variables comme le temps consacré à l'apprentissage ou l'intérêt pour le contenu pédagogique n'a pas été, à notre connaissance, étudié jusqu'ici. Cette étude s'inscrit dans ces deux courants de recherche. Elle s'intéresse principalement à l'influence globale d'un ensemble de caractéristiques des deux modèles sur le rendement scolaire d'élèves en difficulté d'apprentissage de niveau primaire, ainsi qu'à l'effet d'une de ces caractéristiques sur le temps requis par ces élèves pour maîtriser leur apprentissage.
Resumo:
A dissertação examina o critério de evidência cartesiano. O critério de evidência consiste na clareza e distinção das idéias. O objetivo é mostrar que o critério de evidência comporta elementos objetivos de diferenciação entre as idéias claras e distintas e as idéias obscuras e confusas. Primeiramente, demonstra-se que há propriedades intrínsecas constitutivas da clareza e distinção das idéias. Depois, mostra-se que as idéias claras e distintas têm conteúdos proposicionais, e, além disso, estabelece-se que as idéias claras e distintas comportam índices fundadores indubitáveis. Desta forma, perceber clara e distintamente é identificar relações lógicas entre a proposição e o seu índice fundador indubitável. Para cada índice fundador identificado existem várias implicações proposicionais possíveis. Um sujeito finito não pode garantir que apreendeu todas as implicações proposicionais possíveis; no entanto, isso não significa que o sujeito não é capaz de ter uma percepção clara e distinta. Com efeito, pretende-se mostrar que para satisfazer o critério de evidência basta apreender a implicação essencial do índice fundador. Conclui-se, assim, que o critério de evidência comporta elementos objetivos, os quais são fundados nas relações lógicas que existem entre as proposições e seus índices fundadores indubitáveis.
Resumo:
Esta dissertação versa sobre três aspectos da relação entre psicanálise e ciência tendo como fio condutor o sujeito da psicanálise. Primeiramente a importância da ciência para a delimitação do estatuto do saber psicanalítico, visando, mais do que decidir sobre o estatuto científico da psicanálise, as condições de sua emergência como um campo de saber e como uma práxis a partir da ciência. Neste primeiro momento da dissertação, seguimos as indicações da posição de Freud em A questão de uma Weltanschauung e a problematização levada a cabo por Lacan no seu Seminário - Livro 11 (Os quatro conceitos fundamentais da psicanálise). Num segundo momento, discutimos o lugar e a função da ciência na constituição da psicanálise ela é sua condição discursiva ou obstáculo? a partir do escrito lacaniano A ciência e a verdade e tomando como contraponto alguns autores que se situam como lacanianos mas que sustentam, contra a posição de Lacan, que a ciência se coloca como obstáculo para a psicanálise. No terceiro e último momento da dissertação, discutimos a diferença do estatuto de real na ciência e na psicanálise utilizando como critério demarcador o ato psicanalítico tal como este último é definido por Lacan no Seminário Livro XV O ato psicanalítico.
Resumo:
Baseado em estudos de casos e em discussões teóricas, este trabalho analisa as relações entre a estética, a produção e a recepção de uma vertente do teatro produzido no Rio de Janeiro que se propõe manter-se além do entretenimento. O critério para a escolha dos casos estudados é o da inteligibilidade das relações entre estética e contexto sócio-econômico, a partir das próprias referências e vivências do pesquisador enquanto também artista e produtor teatral. A abordagem do teatro como fenômeno estético e cultural que interage com o meio sócio-econômico vale neste trabalho tanto para o teatro da contemporaneidade quanto em suas discussões históricas. A universalização da TV, a falta de público pagante para a arte e a ainda recente resposta do Estado como financiador universal da cultura aparecem aqui intimamente ligadas à proliferação e transformação de poéticas teatrais, principalmente no que concerne ao trabalho do ator em cena, sua formação, e a concepção que ele tem de sociedade e de seu papel dentro dela. Esta mirada a partir do fazer teatral questiona o valor de limites fixos entre arte e indústria cultural, ao sugerir como problemática a definição de arte e cultura na contemporaneidade. As relações de mútua legitimação entre a indústria da televisão e o teatro na cidade são acompanhadas desde a sua descoberta pelo Teatro dos Sete, seu apogeu nos anos 70 e 80, e sua subsequente crise no final da década de 80, quando a simbiose se transformou em competição e a TV passou a ditar as regras do mercado de atores. Os espetáculos escolhidos para análise nesta ótica são justamente O Mambembe de 1959 e A Maldição do Vale Negro, de 1988. Em seguida o texto apresenta um resumo de observações e pesquisas sobre sociologia da cultura, a sócio-economia do teatro e as políticas públicas na França. The Flash and Crash Days, de Gerald Thomas, é o espetáculo escolhido para abordar o início da era dos patrocínios no teatro carioca. A última parte da tese procura juntar os resultados obtidos nos estudos e algumas análises a discussões atuais sobre o teatro no Rio de Janeiro, ao comentar possíveis relações entre a estética e o contexto na cena experimental da zona sul da cidade, e a mudança ideológica e de valores que acompanha a ainda recente mudança de modos de produção. O olhar do teatro como negócio é confrontado por uma alternativa que sugere a abertura de novas perspectivas, através da inclusão de novos sujeitos, como oportunidade de renovação da cena carioca