845 resultados para New paradigm


Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’aménagement des systèmes d’assainissement conventionnel des eaux usées domestiques entraine actuellement la déplétion de ressources naturelles et la pollution des milieux récepteurs. L’utilisation d’une approche écosystémique plus globale telle que l’Assainissement Écologique, visant la fermeture du cycle de l’eau et des éléments nutritifs (phosphore et azote), contenus dans les excréments, par leur réutilisation à travers l’agriculture, permettrait d’améliorer de façon écologique cette situation. Toutefois, ce paradigme émergent est peu enseigné aux professionnels de l’aménagement responsables de sa planification, surtout au niveau de son application dans les pays développés nordiques. C’est pourquoi, afin d’améliorer la planification de ce type de système, il faut informer ces derniers des pratiques les plus adéquates à adopter. Pour y arriver, un scénario d’aménagement type a été développé à partir d’une revue exhaustive de la littérature et de l’analyse des données en se basant sur les recommandations de l’approche en fonction du contexte étudié. Ce scénario aidera les professionnels à mieux comprendre l’Assainissement Écologique et son aménagement. Il représente alors un point de départ pour les discussions interdisciplinaires et participatives que celui-ci requiert. En conclusion, il y a encore de nombreux manques d’informations concernant l’utilisation de traitements alternatifs dans les climats nordiques et l’acceptation de ceux-ci par les usagers. De plus, les cadres législatifs demeurent un obstacle considérable à l’aménagement d’un tel système. Cette recherche permet cependant de démystifier l’approche auprès des professionnels et pourrait aider à modifier certains cadres législatifs afin d’y intégrer sa philosophie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Benjamin Fondane est un penseur et un artiste du XXe siècle qui demeure encore relativement méconnu de la communauté universitaire. Pourtant, son œuvre poétique et ses essais révèlent une démarche atypique et une vision concrète de la dualité humaine et de la pratique de la pensée. « Le mal des fantômes », poème central de l’œuvre de Fondane, est une incarnation imagée du mal-être psychique de l’humain qui pressent que ses réflexes intellectuels, tels la raison et l’esprit de non-contradiction, créent une rupture avec son expérience intime du monde, brigue une portion du réel. L’étude de la figure du fantôme (qui est la figure de la hantise dans la tradition littéraire) ainsi que de l’économie discursive de la traversée maritime qui se déploient dans ce poème nous permet d’interroger les astuces rhétoriques que Fondane met en place afin de contrecarrer ce malaise. À travers l’expérience scripturale et la lecture, il est à la recherche d’une nouvelle disposition de l’activité réflexive qui serait davantage solidaire de l’existence humaine. C’est grâce au geste de l’écriture que sa pensée voyage, se meut, retrouve sa vivacité et, par là même, ses pouvoirs de mutation. Se pencher sur la mise en œuvre de la réflexion chez Benjamin Fondane permet de poser un regard sensible sur les propres rapports que nous entretenons avec notre activité intellectuelle, scripturale et notre pensée.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

"La publication simultanée est un paradigme nouveau de diffusion dans Internet. Au lieu de privilégier l'aspect visuel d'une page, la famille de technologies RSS permet de communiquer la structure d'un site, en vue d'une navigation plus systématique et rapide. À l'instar du foisonnement qui caractérisait la bulle Internet du tournant du millénaire, plusieurs saveurs de cette technologie furent développées en parallèle par différents groupes. L'acronyme RSS reflète cette compétition et désigne, successivement, Rich Site Summary (RSS 0.91); RDF Site Summary (RSS 0.9 and 1.0) ainsi que Really Simple Syndication (RSS 2.0). Par ailleurs, Atom 1.0 représente un format RSS entériné par les organes de standardisation d'Internet. Sont présentés les mécanismes de publication et de compilation de fils RSS."

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Considérée comme le futur de la pratique médicale, la nanomédecine est l’application des nanotechnologies aux soins de santé. Plus qu’un nouveau domaine d’application technologique, la nanomédecine est porteuse d’un nouveau paradigme biomédical qui promeut une conception technoscientifique de la santé. Ce nouveau paradigme regroupe sous le préfixe nano l’ensemble des grandes tendances actuelles de la recherche en santé : la médecine prédictive, la médecine personnalisée et la médecine régénératrice. Centré sur le développement d’innovations visant au contrôle technique des éléments et des processus biologiques fondamentaux, ce nouveau paradigme se développe largement grâce au soutien des gouvernements et aux promesses économiques qu’il soulève. Il se construit à la croisée du scientifique, du politique et de l’économique. Interroger la nanomédecine revient alors à examiner plus largement la forme et les conditions du sens des innovations biomédicales et à soulever les implications de la « technoscientifisation » des soins de santé. L’objectif de cette thèse est de rendre compte de la spécificité et des enjeux sociaux, culturels et politico-économiques caractéristiques du modèle biomédical technoscientifique porté par la nanomédecine à partir de sa conceptualisation sous la forme d’un idéaltype : la nanosanté. Si la nanomédecine renvoie de manière générale aux applications techniques de la nanotechnologie au domaine biomédical, la nanosanté renvoie aux diverses dimensions sociologiques constitutives de ces technologies et à leurs effets sur la santé et la société. Notre modèle de la nanosanté s’organise autour de trois dimensions : la transversalité, l’amélioration et la globalisation. Compte tenu de sa nature synthétique, ce modèle tridimensionnel permet iii d’aborder de front plusieurs questionnements cruciaux soulevés par le développement de la nanomédecine. Il permet d’éclairer le rapport contemporain à la santé et ses implications sur l’identité ; de mettre en lumière la centralité des technosciences dans la conception du progrès médical et social ; de mieux saisir les nouvelles formes globales de pouvoir sur la vie et les nouvelles formes d’inégalité et d’exploitation caractéristiques d’une société qui accorde une valeur grandissante à l’adaptabilité technique de l’humain et à l’économisation de la santé et du corps ; mais aussi de mieux comprendre le sens et les répercussions de l’engagement scientifique, politique et économique dans les innovations moléculaires et cellulaires.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La présente thèse est construite en trois parties. La première partie est précédée du chapitre 1 qui présente les premières données du travail de terrain sur les femmes hassidiques Belz, l’éducation des jeunes enfants et l’histoire de la communauté. La première partie est composée de trois chapitres qui analysent les notions relatives à la petite enfance, notamment sa définition et sa conception à travers l’histoire humaine récente et selon différentes cultures. Le chapitre 2 examine la question de la petite enfance en soi et des conditions qui la définissent. Le chapitre 3 analyse l’institutionnalisation de la petite enfance dans le monde moderne contemporain. Le chapitre 4 analyse l’avènement de la norme scientifique et son impact sur la petite enfance en ce qui a trait à l’éducation et au développement. Ces chapitres analysent notamment l’éducation en petite enfance en CPE (Centres de la petite enfance) au Québec. La deuxième partie de la thèse, composée aussi de trois chapitres, présente les paradigmes scientifiques et les cadres conceptuels dominants en petite enfance. Le chapitre 5 explique l’impact du « néolibéralisme » ou de la modernité avancée en petite enfance. Le chapitre 6 présente le nouveau paradigme du « postfondamentalisme » en petite enfance et le chapitre 7, celui de l’éco-éducation ainsi que la posture de « l’écosophie » en petite enfance. Ce dernier propose une application pédagogique de l’éco-éducation et de l’écosophie en petite enfance. La troisième partie fait état du travail de terrain en anthropologie au sein de la communauté féminine des Hassidim Belz de Montréal, notamment au sein des services de garde en milieux familial accrédités par le ministère de la Famille du Québec. Elle se divise en deux chapitres. Le chapitre 8 analyse l’incident de la Directive contre l’enseignement religieux en services de garde subventionnés. Le chapitre 9 propose les résultats du travail de terrain sur la philosophie de vie et la spiritualité des femmes hassidiques Belz de Montréal. La conclusion générale intègre le paradigme de l’éco-éducation et la posture de « l’écosophie » en petite enfance à la philosophie de vie et la spiritualité des femmes hassidiques Belz de Montréal. Elle propose un « réenchantement » du développement et de l’éducation en petite enfance.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette recherche s’intéresse au phénomène qu’est l’allongement de la durée des conventions collectives. Avant juin 1994, la durée maximale d’une convention collective était fixée à trois ans. La venue de la mondialisation a chamboulé les entreprises qui, elles, pour s’adapter et survivre à cette nouvelle réalité et demeurer compétitives, ont dû procéder à des investissements majeurs, des restructurations, miser sur des relations de partenariat avec les syndicats, etc. (Boivin, 1998). Pour ce faire, elles devaient s’assurer d’obtenir une stabilité et une paix industrielle (Grant et Paquet, 1998). C’est à ce moment que nous avons vu l’apparition d’ententes qui visaient à prolonger la durée maximale des conventions collectives, fixées à trois ans, sans contrevenir aux différentes dispositions du Code du travail (L.R.Q. c.C-27). Ces « contrats sociaux » devaient compter différentes caractéristiques particulières. C’est le 10 mai 1994 que le législateur québécois a déplafonné la durée des conventions collectives (Mayer, 1999). Tel qu’établi, les transformations au niveau de l’environnement ont poussé les acteurs à revoir leurs façons de faire. Cela a mené à une déconflictualisation des relations du travail (Jalette, Bourque et Laroche, 2008). Les acteurs ont adopté des stratégies de négociation de plus en plus coopératives, ils ont eu un recours accru à la concertation, et ont développé une relation de partenariat (Maschino et coll., 2001). Nous observons en parallèle à une tendance à l’allongement de la durée des conventions collectives. Nous nous questionnons à savoir ce qui a principalement motivé autant les syndicats à négocier ce type d’entente et ainsi, renoncer à leur droit de grève, et aussi quels sont les avantages ou inconvénients pour les employeurs de négocier de telles ententes. De manière plus spécifique, notre question de recherche est la suivante : Quels sont les effets de l’allongement de la durée des conventions collectives sur les relations du travail locales en entreprise? Notre analyse vise à vérifier six propositions de recherche : 1- Les relations du travail sont transformées par la durée d’une convention collective de travail, laquelle est influencée par l’environnement. 2- L’allongement de la durée des conventions collectives de travail amène les parties à davantage recourir à des stratégies de négociation intégrative. 3- L’allongement de la durée des conventions collectives de travail contribue à diminuer le nombre de conflits de travail 4- L’allongement de la durée des conventions collectives de travail change la nature des manifestations du conflit sur le marché du travail. 5- L’allongement de la durée des conventions collectives transforme le contenu des conventions collectives de travail par l’intégration de clauses nouvelles. 6- L’allongement de la durée des CCT diminue le rapport de force du syndicat. Dans le but de répondre à ces différents questionnements, nous avons utilisé une méthodologie qualitative de recherche et plus précisément, l’étude de cas. Cette dernière fut conduite en trois étapes : la préparation, la collecte de données et l’interprétation (Merriam, 1998). Les données de notre étude ont été colligées durant l’été et l’automne 2010. Tout d’abord, nous avons effectué des entretiens semi structuré à l’aide d’une grille d’entrevue. Cette grille d’entrevue fut adaptée en fonction des acteurs rencontrés, et surtout de la partie qu’ils représentent. Nous avons interrogé les acteurs tant patronaux que syndicaux, c’est-à-dire : du côté patronal, nous avons rencontré les responsables des relations du travail oeuvrant au siège social ainsi que les conseillers en relations du travail en charge de négocier ou d’appliquer la convention collective des différents établissements couverts par l’étude. Du côté syndical, nous avons rencontré les conseillers syndicaux en charge également de négocier la convention collective et de veiller à son application. Au total, nous avons mené onze entretiens. En guise de comparaison, nous avons aussi procédé à une analyse de contenu de 139 conventions collectives du secteur de l’alimentation. Nous cherchions à savoir si les conventions collectives de longue durée avaient tendance à comporter majoritairement une plus grande présence de clauses en lien avec les 7 caractéristiques des « contrats sociaux » mentionnées par Mayer (1999). Ces caractéristiques sont les suivantes : transparence économique et de gestion, participation à la gestion, programme de qualité totale, formation, flexibilité dans l’organisation du travail, stabilité de l’emploi et mécanismes de gestion de l’entente. Mots clés : allongement, durée, conventions collectives, relations du travail, loi 116, déplafonnement des conventions collectives, NBI et concertation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper presents a new paradigm for signal reconstruction and superresolution, Correlation Kernel Analysis (CKA), that is based on the selection of a sparse set of bases from a large dictionary of class- specific basis functions. The basis functions that we use are the correlation functions of the class of signals we are analyzing. To choose the appropriate features from this large dictionary, we use Support Vector Machine (SVM) regression and compare this to traditional Principal Component Analysis (PCA) for the tasks of signal reconstruction, superresolution, and compression. The testbed we use in this paper is a set of images of pedestrians. This paper also presents results of experiments in which we use a dictionary of multiscale basis functions and then use Basis Pursuit De-Noising to obtain a sparse, multiscale approximation of a signal. The results are analyzed and we conclude that 1) when used with a sparse representation technique, the correlation function is an effective kernel for image reconstruction and superresolution, 2) for image compression, PCA and SVM have different tradeoffs, depending on the particular metric that is used to evaluate the results, 3) in sparse representation techniques, L_1 is not a good proxy for the true measure of sparsity, L_0, and 4) the L_epsilon norm may be a better error metric for image reconstruction and compression than the L_2 norm, though the exact psychophysical metric should take into account high order structure in images.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In the 1980’s, many United States industrial organizations started developing new production processes to improve quality, reduce cost, and better respond to customer needs and the pressures of global competition. This new paradigm was coined Lean Production (or simply “Lean”) in the book The Machine That Changed The World published in 1990 by researchers from MIT’s International Motor Vehicle Program. In 1993, a consortium of US defense aerospace firms and the USAF Aeronautical Systems Center, together with the AFRL Materials and Manufacturing Directorate, started the Lean Aircraft Initiative (LAI) at MIT. With expansion in 1998 to include government space products, the program was renamed the Lean Aerospace Initiative. LAI’s vision is to “Significantly reduce the cost and cycle time for military aerospace products throughout the entire value chain while continuing to improve product performance.” By late 1998, 23 industry and 13 government organizations with paying memberships, along with MIT and the UAW were participating in the LAI.