924 resultados para Reasonable Lenght of Process
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
This paper proposes a theory of the good life for use in answering the question how much money the rich should spend on fighting poverty. The paper moves from the abstract to the concrete. To begin with, it investigates various ways to get an answer to the question what is good, and finds itself drawn to objective theories of the good. It then develops, taking Bernard Williams and Martha Nussbaum as its guides, a broad outline of a theory of the good. It holds that something evil happens to people if they do not have a real choice from a reasonable number of projects that realize most of their key capacities to a certain degree, and in connection to this it points to the great importance of money. The paper goes on specifically to consider what criticisms of Nussbaum's version of the capability approach are implied in this outline of a theory of the good. Next, it gets more specific and asks how much money the rich can give -and how they can be restricted in spending their money- without suffering any evil. It does three suggestions: the tithe suggestion, the ecological (or footprint) suggestion, and the fair trade suggestion. To conclude, the paper returns to the question how much money the rich should spend on fighting poverty.
Resumo:
Tout employeur qui fournit l'accès Internet au sein de son entreprise a intérêt à surveiller l'usage qui en est fait par ses employés, que ce soit pour maximiser les avantages ou pour réduire les risques liés à l'utilisation d'Internet au travail. Tout employeur a d'ailleurs le droit d'exercer une telle surveillance, sous réserve toutefois des droits des personnes surveillées. La mise en place d'une surveillance de l'utilisation d'Internet au travail peut porter atteinte à la vie privée des employés ou à leur droit à des conditions de travail justes et raisonnables, et peut également porter atteinte au droit à la vie privée des tiers indirectement visés par la surveillance. Dans ce contexte, afin de s'assurer que la surveillance est exercée dans les limites de ses droits, l'employeur doit franchir deux étapes de réflexion essentielles. L'employeur doit en premier lieu déterminer le niveau d'expectative raisonnable de vie privée des personnes surveillées, lequel niveau s'apprécie à la lumière d'une série de facteurs. L'employeur doit par ailleurs respecter les critères de rationalité et de proportionnalité. Ces critères requièrent notamment que l'employeur identifie les motifs sous-jacents à la surveillance ainsi que la manière dont la surveillance sera exercée. Une fois ces deux étapes franchies, l'employeur sera en mesure d'identifier les obligations auxquelles il est soumis dans le cadre de la mise en place de la surveillance.
Resumo:
L’objectif principal de la présente thèse était de déterminer les facteurs susceptibles d’influencer l’efficacité des processus de contrôle en ligne des mouvements d’atteinte manuelle. De nos jours, les mouvements d’atteinte manuelle réalisés dans un environnement virtuel (déplacer une souris d’ordinateur pour contrôler un curseur à l’écran, par exemple) sont devenus chose commune. Par comparaison aux mouvements réalisés en contexte naturel (appuyer sur le bouton de mise en marche de l’ordinateur), ceux réalisés en contexte virtuel imposent au système nerveux central des contraintes importantes parce que l’information visuelle et proprioceptive définissant la position de l’effecteur n’est pas parfaitement congruente. Par conséquent, la présente thèse s’articule autour des effets d’un contexte virtuel sur le contrôle des mouvements d’atteinte manuelle. Dans notre premier article, nous avons tenté de déterminer si des facteurs tels que (a) la quantité de pratique, (b) l’orientation du montage virtuel (aligné vs. non-aligné) ou encore (c) l’alternance d’un essai réalisé avec et sans la vision de l’effecteur pouvaient augmenter l’efficacité des processus de contrôle en ligne de mouvement réalisés en contexte virtuel. Ces facteurs n’ont pas influencé l’efficacité des processus de contrôle de mouvements réalisés en contexte virtuel, suggérant qu’il est difficile d’optimiser le contrôle des mouvements d’atteinte manuelle lorsque ceux-ci sont réalisés dans un contexte virtuel. L’un des résultats les plus surprenants de cette étude est que nous n’avons pas rapporté d’effet concernant l’orientation de l’écran sur la performance des participants, ce qui était en contradiction avec la littérature existante sur ce sujet. L’article 2 avait pour but de pousser plus en avant notre compréhension du contrôle du mouvement réalisé en contexte virtuel et naturel. Dans le deuxième article, nous avons mis en évidence les effets néfastes d’un contexte virtuel sur le contrôle en ligne des mouvements d’atteinte manuelle. Plus précisément, nous avons observé que l’utilisation d’un montage non-aligné (écran vertical/mouvement sur un plan horizontal) pour présenter l’information visuelle résultait en une importante diminution de la performance comparativement à un montage virtuel aligné et un montage naturel. Nous avons aussi observé une diminution de la performance lorsque les mouvements étaient réalisés dans un contexte virtuel aligné comparativement à un contexte naturel. La diminution de la performance notée dans les deux conditions virtuelles s’expliquait largement par une réduction de l’efficacité des processus de contrôle en ligne. Nous avons donc suggéré que l’utilisation d’une représentation virtuelle de la main introduisait de l’incertitude relative à sa position dans l’espace. Dans l’article 3, nous avons donc voulu déterminer l’origine de cette incertitude. Dans ce troisième article, deux hypothèses étaient à l’étude. La première suggérait que l’augmentation de l’incertitude rapportée dans le contexte virtuel de la précédente étude était due à une perte d’information visuelle relative à la configuration du bras. La seconde suggérait plutôt que l’incertitude provenait de l’information visuelle et proprioceptive qui n’est pas parfaitement congruente dans un contexte virtuel comparativement à un contexte naturel (le curseur n’est pas directement aligné avec le bout du doigt, par exemple). Les données n’ont pas supporté notre première hypothèse. Plutôt, il semble que l’incertitude soit causée par la dissociation de l’information visuelle et proprioceptive. Nous avons aussi démontré que l’information relative à la position de la main disponible sur la base de départ influence largement les processus de contrôle en ligne, même lorsque la vision de l’effecteur est disponible durant le mouvement. Ce résultat suggère que des boucles de feedback interne utilisent cette information afin de moduler le mouvement en cours d’exécution.
Resumo:
L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.
Resumo:
La présente recherche a comme sujet la gestion des risques au cœur de la prise de décision en protection de l’enfance. Elle a comme objectif une meilleure compréhension de la pratique à partir de la construction des logiques d’action déployées par les professionnels ainsi que la réflexion sur le sens qu’ils accordent à leurs actions. Le projet est porté par une posture constructiviste : les professionnels « construisent » la situation problématique de l’enfant à protéger tout comme ils construisent la solution envisagée. C’est à partir de la combinaison entre la réflexivité (Schön; Racine; Giddens) et la délibération éthique (Bossé, Morin et Dallaire) que des groupes de discussion impliquant des professionnels de professions et de statuts différents ont été réalisés au Centre jeunesse de l’Estrie. Ces groupes s’inscrivent dans une méthodologie qualitative laissant place aux discours des acteurs et sont accompagnés d’entretiens individuels comme stratégie complémentaire de cueillette de données. Les données ont été explorées à partir d’une analyse de contenu sous trois axes (Van der Maren) : une analyse horizontale (dégager les éléments pertinents à partir d’un cadre de délibération éthique), une analyse verticale (dégager les interactions et les inter-influences dans les groupes de discussion) et une analyse transversale (dégager des noyaux de sens et des logiques d’action à travers les discours). Les résultats permettent d’établir des séquences dans la prise de décision des professionnels à partir desquelles se construisent les logiques d’action. Trois logiques sont dégagées de l’analyse de contenu ⎯ collaborative, délibérative, légaliste ⎯ qui sont appuyées sur plusieurs dimensions regroupées à l’intérieur de trois axes d’intérêt : le rapport au mandat de protection, le rapport à la situation et le rapport au risque. Au-delà des logiques elles-mêmes, les résultats portent également à réfléchir des éléments de processus qui influencent la prise de décision. Ces éléments amènent à explorer et à questionner la posture professionnelle et la conviction, le dialogue et la présence d’espace de traduction ainsi que l’apport de la délibération collective. Au final, la recherche permet de réaffirmer la complexité de la pratique de protection de l’enfance mais elle conduit également à plaider en faveur d’une conscientisation de la pratique. Dégager des logiques d’action procure des clés de réflexivité pour les professionnels les menant à conscientiser leur prise de décision et ainsi accéder
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Analyse des processus de dérive lors de la gravure profonde du silicium dans des plasmas SF6 et C4F8
Resumo:
L’objectif de ce mémoire de maîtrise est de développer des outils de diagnostics non-invasifs et de caractériser in-situ les dérives de procédé dans un réacteur industriel utilisé en production pour la gravure profonde du silicium par le procédé Bosch. Ce dernier repose sur l’alternance d’un plasma de SF6 pour la gravure isotrope du Si et d’un plasma de C4F8 pour la passivation des parois dans l’optique d’obtenir des tranchées profondes et étroites. Dans un premier temps, nous avons installé une sonde courant-tension sur la ligne de transmission du signal rf au porte-substrat pour l’étude de son impédance caractéristique et un spectromètre optique pour l’étude de l’émission optique du plasma. Nos travaux ont montré que l’évolution temporelle de l’impédance constitue un excellent moyen pour identifier des changements dans la dynamique du procédé, notamment une gravure complète de la photorésine. De plus, à partir des spectres d’émission, nous avons pu montrer que des produits carbonés sont libérés du substrat et des parois lors de l’alternance passivation/gravure et que ceux-ci modifient considérablement la concentration de fluor atomique dans le plasma. Dans un second temps, nous avons développé un réacteur à « substrat-tournant » pour l’analyse in-situ des interactions plasma-parois dans le procédé Bosch. Nos travaux sur ce réacteur visaient à caractériser par spectrométrie de masse l’évolution temporelle des populations de neutres réactifs et d’ions positifs. Dans les conditions opératoires étudiées, le SF6 se dissocie à près de 45% alors que le degré de dissociation du C4F8 atteint 70%. Le SF6 est avant tout dissocié en F et SF3 et l’ion dominant est le SF3+ alors que le C4F8 est fragmenté en CF, CF3 et CF4 et nous mesurons plusieurs ions significatifs. Dans les deux cas, la chaîne de dissociation demeure loin d’être complète. Nous avons noté une désorption importante des parois de CF4 lors du passage du cycle de passivation au cycle de gravure. Un modèle d’interactions plasmas-parois est proposé pour expliquer cette observation.
Resumo:
Cette étude a eu l’objectif d’analyser et d’identifier les différentes visions de la revitalisation du Parc Municipal Américo Renné Giannetti, à Belo Horizonte (Brésil), dans le contexte de transformations spatiales de la ville pour la Coupe du monde arrivée en 2014. Pour le développement de cette recherche, on a utilisé des démarches distinctes. La première a consisté à faire un abordage sur les projets de restructurations urbaines pour les évènements internationaux qui en transformant certains espaces (comme les parcs urbains et certaines aires historiques) tentent à dynamiser l’entrepreneuriat urbain en transformant ces espaces, les villes et les pays hôtes en « produits » consommés par un public très spécifique. Les autres étapes ont consisté à démontrer le rôle social du Parc Municipal ainsi qu’à présenter les observations de terrain et les entrevues avec les différents acteurs engagés dans la revitalisation du parc central de Belo Horizonte. L’analyse des différentes visions du projet nous a conduits à conclure que la revitalisation du parc pour la Coupe du monde a eu des enjeux politiques, touristiques, en répondant aussi les intérêts du secteur privé. Dans ce contexte les répercutions sociales sont inévitables vu qu’en répondant le besoin de certains citoyens, la transformation de l’espace entraine des exclusions et réaffirme la ségrégation dans le milieu.
Resumo:
Mikrooptische Filter sind heutzutage in vielen Bereichen in der Telekommunikation unersetzlich. Wichtige Einsatzgebiete sind aber auch spektroskopische Systeme in der Medizin-, Prozess- und Umwelttechnik. Diese Arbeit befasst sich mit der Technologieentwicklung und Herstellung von luftspaltbasierenden, vertikal auf einem Substrat angeordneten, oberflächenmikromechanisch hergestellten Fabry-Perot-Filtern. Es werden zwei verschiedene Filtervarianten, basierend auf zwei verschiedenen Materialsystemen, ausführlich untersucht. Zum einen handelt es sich dabei um die Weiterentwicklung von kontinuierlich mikromechanisch durchstimmbaren InP / Luftspaltfiltern; zum anderen werden neuartige, kostengünstige Siliziumnitrid / Luftspaltfilter wissenschaftlich behandelt. Der Inhalt der Arbeit ist so gegliedert, dass nach einer Einleitung mit Vergleichen zu Arbeiten und Ergebnissen anderer Forschergruppen weltweit, zunächst einige theoretische Grundlagen zur Berechnung der spektralen Reflektivität und Transmission von beliebigen optischen Schichtanordnungen aufgezeigt werden. Auß erdem wird ein kurzer theoretischer Ü berblick zu wichtigen Eigenschaften von Fabry-Perot-Filtern sowie der Möglichkeit einer mikromechanischen Durchstimmbarkeit gegeben. Daran anschließ end folgt ein Kapitel, welches sich den grundlegenden technologischen Aspekten der Herstellung von luftspaltbasierenden Filtern widmet. Es wird ein Zusammenhang zu wichtigen Referenzarbeiten hergestellt, auf denen diverse Weiterentwicklungen dieser Arbeit basieren. Die beiden folgenden Kapitel erläutern dann ausführlich das Design, die Herstellung und die Charakterisierung der beiden oben erwähnten Filtervarianten. Abgesehen von der vorangehenden Epitaxie von InP / GaInAs Schichten, ist die Herstellung der InP / Luftspaltfilter komplett im Institut durchgeführt worden. Die Herstellungsschritte sind ausführlich in der Arbeit erläutert, wobei ein Schwerpunktthema das trockenchemische Ä tzen von InP sowie GaInAs, welches als Opferschichtmaterial für die Herstellung der Luftspalte genutzt wurde, behandelt. Im Verlauf der wissenschaftlichen Arbeit konnten sehr wichtige technische Verbesserungen entwickelt und eingesetzt werden, welche zu einer effizienteren technologischen Herstellung der Filter führten und in der vorliegenden Niederschrift ausführlich dokumentiert sind. Die hergestellten, für einen Einsatz in der optischen Telekommunikation entworfenen, elektrostatisch aktuierbaren Filter sind aus zwei luftspaltbasierenden Braggspiegeln aufgebaut, welche wiederum jeweils 3 InP-Schichten von (je nach Design) 357nm bzw. 367nm Dicke aufweisen. Die Filter bestehen aus im definierten Abstand parallel übereinander angeordneten Membranen, die über Verbindungsbrücken unterschiedlicher Anzahl und Länge an Haltepfosten befestigt sind. Da die mit 357nm bzw. 367nm vergleichsweise sehr dünnen Schichten freitragende Konstrukte mit bis zu 140 nm Länge bilden, aber trotzdem Positionsgenauigkeiten im nm-Bereich einhalten müssen, handelt es sich hierbei um sehr anspruchsvolle mikromechanische Bauelemente. Um den Einfluss der zahlreichen geometrischen Strukturparameter studieren zu können, wurden verschiedene laterale Filterdesigns implementiert. Mit den realisierten Filter konnte ein enorm weiter spektraler Abstimmbereich erzielt werden. Je nach lateralem Design wurden internationale Bestwerte für durchstimmbare Fabry-Perot-Filter von mehr als 140nm erreicht. Die Abstimmung konnte dabei kontinuierlich mit einer angelegten Spannung von nur wenigen Volt durchgeführt werden. Im Vergleich zu früher berichteten Ergebnissen konnten damit sowohl die Wellenlängenabstimmung als auch die dafür benötigte Abstimmungsspannung signifikant verbessert werden. Durch den hohen Brechungsindexkontrast und die geringe Schichtdicke zeigen die Filter ein vorteilhaftes, extrem weites Stopband in der Größ enordnung um 550nm. Die gewählten, sehr kurzen Kavitätslängen ermöglichen einen freien Spektralbereich des Filters welcher ebenfalls in diesen Größ enordnungen liegt, so dass ein weiter spektraler Einsatzbereich ermöglicht wird. Während der Arbeit zeigte sich, dass Verspannungen in den freitragenden InPSchichten die Funktionsweise der mikrooptischen Filter stark beeinflussen bzw. behindern. Insbesondere eine Unterätzung der Haltepfosten und die daraus resultierende Verbiegung der Ecken an denen sich die Verbindungsbrücken befinden, führte zu enormen vertikalen Membranverschiebungen, welche die Filtereigenschaften verändern. Um optimale Ergebnisse zu erreichen, muss eine weitere Verbesserung der Epitaxie erfolgen. Jedoch konnten durch den zusätzlichen Einsatz einer speziellen Schutzmaske die Unterätzung der Haltepfosten und damit starke vertikale Verformungen reduziert werden. Die aus der Verspannung resultierenden Verformungen und die Reaktion einzelner freistehender InP Schichten auf eine angelegte Gleich- oder Wechselspannung wurde detailliert untersucht. Mittels Weisslichtinterferometrie wurden lateral identische Strukturen verglichen, die aus unterschiedlich dicken InP-Schichten (357nm bzw. 1065nm) bestehen. Einen weiteren Hauptteil der Arbeit stellen Siliziumnitrid / Luftspaltfilter dar, welche auf einem neuen, im Rahmen dieser Dissertation entwickelten, technologischen Ansatz basieren. Die Filter bestehen aus zwei Braggspiegeln, die jeweils aus fünf 590nm dicken, freistehenden Siliziumnitridschichten aufgebaut sind und einem Abstand von 390nm untereinander aufweisen. Die Filter wurden auf Glassubstraten hergestellt. Der Herstellungsprozess ist jedoch auch mit vielen anderen Materialien oder Prozessen kompatibel, so dass z.B. eine Integration mit anderen Bauelemente relativ leicht möglich ist. Die Prozesse dieser ebenfalls oberflächenmikromechanisch hergestellten Filter wurden konsequent auf niedrige Herstellungskosten optimiert. Als Opferschichtmaterial wurde hier amorph abgeschiedenes Silizium verwendet. Der Herstellungsprozess beinhaltet die Abscheidung verspannungsoptimierter Schichten (Silizium und Siliziumnitrid) mittels PECVD, die laterale Strukturierung per reaktiven Ionenätzen mit den Gasen SF6 / CHF3 / Ar sowie Fotolack als Maske, die nasschemische Unterätzung der Opferschichten mittels KOH und das Kritisch-Punkt-Trocken der Proben. Die Ergebnisse der optischen Charakterisierung der Filter zeigen eine hohe Ü bereinstimmung zwischen den experimentell ermittelten Daten und den korrespondierenden theoretischen Modellrechnungen. Weisslichtinterferometermessungen der freigeätzten Strukturen zeigen ebene Filterschichten und bestätigen die hohe vertikale Positioniergenauigkeit, die mit diesem technologischen Ansatz erreicht werden kann.
Resumo:
Die Diskussion in den Planungswissenschaften beschreibt den Paradigmenwechsel vom so genannten DEAD-Model (Decide-Announce-Defend) zum Tripple-D-Model (Dialogue-Decide-Deliver) und beschäftigt sich intensiv mit dem Thema Governance. Komplexe Planungsaufgaben brauchen eine Vielfalt an Lösungsideen unterschiedlicher gesellschaftlicher Gruppen. Planung verfolgt u. a. die Umsetzung der Ziele einer nachhaltigen Entwicklung, die die Einbeziehung der Öffentlichkeit (Zivilgesellschaft, Unternehmen und Bürger) verlangt. Darüber hinaus wird eine Erweiterung der Perspektive über Verfahren und Steuerungsformen hinaus auf Akteure und Prozesse gefordert. Räumliche Entwicklungen sollen stärker im Zusammenhang mit Entscheidungsfindungsprozesse untersucht werden. Die Dissertation ergänzt eine wirkungsorientierte Perspektive, die Wirkungen, sowohl räumliche als auch soziale, in den Mittelpunkt der Betrachtung stellt. Sie stützt sich auf Beobachtungen, dass klassisches Projektmanagement für erfolgreiche Planungsprozesse nicht ausreicht, sondern zusätzlich Prozessmanagement braucht. Mit der Weiterentwicklung der partizipativen Planung, die zusätzlich in den Kontext gesellschaftlicher Lernprozesse und zukunftsfähiger Veränderungen gesellschaftlicher Bedingungen gestellt wird, ergänzt die Dissertation planungswissenschaftliche Theorien. Aus einem fachübergreifenden Blickwinkel wird die räumliche Planung in die Reihe von Management- und Organisationswissenschaften eingeordnet. Ausgehend von der Frage, welche räumlichen und sozialen Wirkungen durch Beteiligungsprozesse unter welchen Bedingungen erzielt werden, wurden Fallstudien aus der Wasserwirtschaft und ihre Prozessbiografien umfassend evaluiert. Als Evaluierungsmethode wurde ein von der EU-Kommission empfohlener Evaluierungsrahmen gewählt, der sowohl den Prozess selbst, seine Rahmenbedingungen und Durchführung, als auch Wirkungen analysiert und bewertet. Auf der Grundlage der Ergebnisse und theoretischer Erkenntnisse, vorrangig aus der Evaluationsforschung, wird ein umfassender Beteiligungsansatz konzipiert. Dabei handelt es sich um ein offenes Gerüst, in das sich bewährte und innovative Elemente strategisch gezielt integrieren lassen. Die Struktur verbindet verschiedene Beteiligungswerkzeuge unterschiedlicher Intensitäten und für unterschiedliche Zielgruppen zu einem Gesamtkonzept, mit dem Ziel, möglichst die gewünschten Wirkungen zu erreichen. Wesentlich an dem Ansatz ist, dass bereits das Prozessdesign unter Mitwirkung von Projektträgern, Beratern und Schlüsselakteuren erfolgt. Die partizipative Beteiligungsplanung bedeutet somit Klärung der Vorgehensweise und gleichzeitig Bewusstseins- und Kompetenzerweiterung der verantwortlichen Akteure. Im Ausblick werden künftige Forschungsaufgaben im Bereich der Mitwirkung in der räumlichen Planung formuliert und Handlungsmöglichkeiten aufgezeigt, um Partizipation als Teil planerischer „Alltagskultur“ weiterzuentwickeln. Dies erfolgt vor dem Hintergrund der Bedeutung von Partizipation und Bildung als Umsetzungsstrategie von Ideen der Landschaftsentwicklung und Nachhaltigkeit.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.
Resumo:
In der gesamten Hochschullandschaft begleiten eLearning-Szenarien organisatorische Erneuerungsprozesse und stellen damit ein vielversprechendes Instrument zur Unterstützung und Verbesserung der klassischen Präsenzlehre dar. Davon ausgehend wurde von 2010 bis 2011 das Kasseler Sportspiel-Modell um die integrative Vermittlung der Einkontakt-Rückschlagspiele erweitert (Heyer, Albert, Scheid & Blömeke-Rumpf, 2011) und in einen modularisierten eLearning-Content, bestehend aus insgesamt 4 Modulen (17 Lernkurse, 171 Kursseiten, 73 Grafiken, 73 Videos, 38 Lernkontrollfragen), eingebunden. Dieser Content wurde im Rahmen einer Evaluationsstudie in Blended Learning Seminaren, welche die didaktischen Vorteile von Online- und Präsenzphasen zu einer Seminarform vereinen (Treumann, Ganguin & Arens, 2012), vergleichend zur klassischen Präsenzlehre im Sportstudium betrachtet. Die Studie gliedert sich in insgesamt drei Phasen: 1.) Pilotstudie am IfSS in Kassel (WS 2011/12; N=17, Lehramt), 2.) Hauptuntersuchung I am IfSS in Kassel (SS 2012; N=67, Lehramt) und 3.) Hauptuntersuchung II am IfS in Frankfurt a. M. (WS 2012/13; N=112, BA). Mittels varianzanalytischer Untersuchungsverfahren erfasst die Studie auf drei unterschiedlichen Qualitätsebenen folgende Aspekte der Lehr-Lernforschung: 1.) Ebene der Inputqualität: Bewertung der Seminarform (BS), 2.) Ebene der Prozessqualität: Motivation (SELLMO-ST), Lernstrategien (LIST) und computerbezogene Einstellung (FIDEC), 3.) Ebene der Outcomequalität: Lernleistung (Abschlusstest und Transferaufgabe). In der vergleichenden Betrachtung der beiden Hauptuntersuchungen erfolgt eine Gegenüberstellung von je einem Präsenzseminar zu zwei unterschiedlichen Varianten von Blended Learning Seminaren (BL-1, BL-2). Während der Online-Phasen bearbeiten die Sportstudierenden in BL-1 die Module in Lerngruppen. Die Teilnehmer in BL-2 führen in diesen Phasen zusätzlich persönliche Lerntagebücher. Dies soll zu einer vergleichsweise intensiveren Auseinandersetzung mit den Inhalten der Lernkurse sowie dem eigenen Lernprozess auf kognitiver und metakognitiver Ebene anregen (Hübner, Nückles & Renkl, 2007) und folglich zu besseren Ergebnissen auf den drei Qualitätsebenen führen. Die Ergebnisse der beiden Hauptuntersuchungen zeigen in der direkten, standortbezogenen Gegenüberstellung aller drei Seminarformen überwiegend keine statistisch signifikanten Unterschiede. Der erwartete positive Effekt durch die Einführung des Lerntagebuchs bleibt ebenfalls aus. Im standortübergreifenden Vergleich der Blended-Learning-Seminare ist bemerkenswert, dass die Probanden aus Frankfurt gegenüber ihrer Seminarform eine tendenziell kritischere Haltung einnehmen, was möglicherweise mit den vorherrschenden, unterschiedlichen Studiengängen – Lehramt und BA – korrespondiert. Zusammenfassend lässt sich somit für den untersuchten Bereich der Rückschlagspielvermittlung festhalten, dass Blended-Learning-Seminare eine qualitativ gleichwertige Alternative zur klassischen Präsenzlehre im Sportstudium darstellen.
Resumo:
Performance and manufacturability are two important issues that must be taken into account during MEMS design. Existing MEMS design models or systems follow a process-driven design paradigm, that is, design starts from the specification of process sequence or the customization of foundry-ready process template. There has been essentially no methodology or model that supports generic, high-level design synthesis for MEMS conceptual design. As a result, there lacks a basis for specifying the initial process sequences. To address this problem, this paper proposes a performance-driven, microfabrication-oriented methodology for MEMS conceptual design. A unified behaviour representation method is proposed which incorporates information of both physical interactions and chemical/biological/other reactions. Based on this method, a behavioural process based design synthesis model is proposed, which exploits multidisciplinary phenomena for design solutions, including both the structural components and their configuration for the MEMS device, as well as the necessary substances for the chemical/biological/other reactions. The model supports both forward and backward synthetic search for suitable phenomena. To ensure manufacturability, a strategy of using microfabrication-oriented phenomena as design knowledge is proposed, where the phenomena are developed from existing MEMS devices that have associated MEMS-specific microfabrication processes or foundry-ready process templates. To test the applicability of the proposed methodology, the paper also studies microfluidic device design and uses a micro-pump design for the case study.