917 resultados para PHASE-SPACE APPROACH


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this research is to observe the state of customer value management in Outotec Oyj, determine the key development areas and develop a phase model with which to guide the development of a customer value based sales tool. The study was conducted with a constructive research approach with the focus of identifying a problem and developing a solution for the problem. As a basis for the study, the current literature involving customer value assessment and solution and customer value selling was studied. The data was collected by conducting 16 interviews in two rounds within the company and it was analyzed by coding openly. First, seven important development areas were identified, out of which the most critical were “Customer value mindset inside the company” and “Coordination of customer value management activities”. Utilizing these seven areas three functionality requirements, “Preparation”, “Outotec’s value creation and communication” and “Documentation” and three development requirements for a customer value sales tool were identified. The study concluded with the formulation of a phase model for building a customer value based sales tool. The model included five steps that were defined as 1) Enable customer value utilization, 2) Connect with the customer, 3) Create customer value, 4) Define tool to facilitate value selling and 5) Develop sales tool. Further practical activities were also recommended as a guide for executing the phase model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this study was to explore the clinical efficacy of a novel retrograde puncture approach to establish a preperitoneal space for laparoscopic direct inguinal hernia repair with inguinal ring suturing. Forty-two patients who underwent laparoscopic inguinal hernia repair with retrograde puncture for preperitoneal space establishment as well as inguinal ring suturing between August 2013 and March 2014 at our hospital were enrolled. Preperitoneal space was successfully established in all patients, with a mean establishment time of 6 min. Laparoscopic repairs were successful in all patients, with a mean surgical time of 26±15.1 min. Mean postoperative hospitalization duration was 3.0±0.7 days. Two patients suffered from postoperative local hematomas, which were relieved after puncturing and drainage. Four patients had short-term local pain. There were no cases of chronic pain. Patients were followed up for 6 months to 1 year, and no recurrence was observed. Our results demonstrate that preperitoneal space established by the retrograde puncture technique can be successfully used in adult laparoscopic hernioplasty to avoid intraoperative mesh fixation, and thus reduce medical costs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Crystal properties, product quality and particle size are determined by the operating conditions in the crystallization process. Thus, in order to obtain desired end-products, the crystallization process should be effectively controlled based on reliable kinetic information, which can be provided by powerful analytical tools such as Raman spectrometry and thermal analysis. The present research work studied various crystallization processes such as reactive crystallization, precipitation with anti-solvent and evaporation crystallization. The goal of the work was to understand more comprehensively the fundamentals, phenomena and utilizations of crystallization, and establish proper methods to control particle size distribution, especially for three phase gas-liquid-solid crystallization systems. As a part of the solid-liquid equilibrium studies in this work, prediction of KCl solubility in a MgCl2-KCl-H2O system was studied theoretically. Additionally, a solubility prediction model by Pitzer thermodynamic model was investigated based on solubility measurements of potassium dihydrogen phosphate with the presence of non-electronic organic substances in aqueous solutions. The prediction model helps to extend literature data and offers an easy and economical way to choose solvent for anti-solvent precipitation. Using experimental and modern analytical methods, precipitation kinetics and mass transfer in reactive crystallization of magnesium carbonate hydrates with magnesium hydroxide slurry and CO2 gas were systematically investigated. The obtained results gave deeper insight into gas-liquid-solid interactions and the mechanisms of this heterogeneous crystallization process. The research approach developed can provide theoretical guidance and act as a useful reference to promote development of gas-liquid reactive crystallization. Gas-liquid mass transfer of absorption in the presence of solid particles in a stirred tank was investigated in order to gain understanding of how different-sized particles interact with gas bubbles. Based on obtained volumetric mass transfer coefficient values, it was found that the influence of the presence of small particles on gas-liquid mass transfer cannot be ignored since there are interactions between bubbles and particles. Raman spectrometry was successfully applied for liquid and solids analysis in semi-batch anti-solvent precipitation and evaporation crystallization. Real-time information such as supersaturation, formation of precipitates and identification of crystal polymorphs could be obtained by Raman spectrometry. The solubility prediction models, monitoring methods for precipitation and empirical model for absorption developed in this study together with the methodologies used gives valuable information for aspects of industrial crystallization. Furthermore, Raman analysis was seen to be a potential controlling method for various crystallization processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Project scope is to utilize Six Sigma DMAIC approach and lean principles to improve production quality of the case company. Six Sigma tools and techniques are explored through a literature review and later used in the quality control phase. The focus is set on the Pareto analysis to demonstrate the most evident development areas in the production. Materials that are not delivered to the customer or materials that damaged during transportation comprise the biggest share of all feedbacks. The goal is set to reduce these feedbacks by 50 %. Production observation pointed out that not only material shortages but also over-production is a daily situation. As a result, an initial picking list where the purchased and own production components can be seen, is created, reduction of over- and underproduction and material marking improvement are seen the most competitive options so that the goal can be reached. The picking list development should still continue to make sure that the list can be used not only in the case study but also in the industrial scale. The reduction of material missing category can be evaluated reliably not sooner than in few years because it takes time to gather the needed statistical information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The production of biodiesel through transesterification has created a surplus of glycerol on the international market. In few years, glycerol has become an inexpensive and abundant raw material, subject to numerous plausible valorisation strategies. Glycerol hydrochlorination stands out as an economically attractive alternative to the production of biobased epichlorohydrin, an important raw material for the manufacturing of epoxy resins and plasticizers. Glycerol hydrochlorination using gaseous hydrogen chloride (HCl) was studied from a reaction engineering viewpoint. Firstly, a more general and rigorous kinetic model was derived based on a consistent reaction mechanism proposed in the literature. The model was validated with experimental data reported in the literature as well as with new data of our own. Semi-batch experiments were conducted in which the influence of the stirring speed, HCl partial pressure, catalyst concentration and temperature were thoroughly analysed and discussed. Acetic acid was used as a homogeneous catalyst for the experiments. For the first time, it was demonstrated that the liquid-phase volume undergoes a significant increase due to the accumulation of HCl in the liquid phase. Novel and relevant features concerning hydrochlorination kinetics, HCl solubility and mass transfer were investigated. An extended reaction mechanism was proposed and a new kinetic model was derived. The model was tested with the experimental data by means of regression analysis, in which kinetic and mass transfer parameters were successfully estimated. A dimensionless number, called Catalyst Modulus, was proposed as a tool for corroborating the kinetic model. Reactive flash distillation experiments were conducted to check the commonly accepted hypothesis that removal of water should enhance the glycerol hydrochlorination kinetics. The performance of the reactive flash distillation experiments were compared to the semi-batch data previously obtained. An unforeseen effect was observed once the water was let to be stripped out from the liquid phase, exposing a strong correlation between the HCl liquid uptake and the presence of water in the system. Water has revealed to play an important role also in the HCl dissociation: as water was removed, the dissociation of HCl was diminished, which had a retarding effect on the reaction kinetics. In order to obtain a further insight on the influence of water on the hydrochlorination reaction, extra semi-batch experiments were conducted in which initial amounts of water and the desired product were added. This study revealed the possibility to use the desired product as an ideal “solvent” for the glycerol hydrochlorination process. A co-current bubble column was used to investigate the glycerol hydrochlorination process under continuous operation. The influence of liquid flow rate, gas flow rate, temperature and catalyst concentration on the glycerol conversion and product distribution was studied. The fluid dynamics of the system showed a remarkable behaviour, which was carefully investigated and described. Highspeed camera images and residence time distribution experiments were conducted to collect relevant information about the flow conditions inside the tube. A model based on the axial dispersion concept was proposed and confronted with the experimental data. The kinetic and solubility parameters estimated from the semi-batch experiments were successfully used in the description of mass transfer and fluid dynamics of the bubble column reactor. In light of the results brought by the present work, the glycerol hydrochlorination reaction mechanism has been finally clarified. It has been demonstrated that the reactive distillation technology may cause drawbacks to the glycerol hydrochlorination reaction rate under certain conditions. Furthermore, continuous reactor technology showed a high selectivity towards monochlorohydrins, whilst semibatch technology was demonstrated to be more efficient towards the production of dichlorohydrins. Based on the novel and revealing discoveries brought by the present work, many insightful suggestions are made towards the improvement of the production of αγ-dichlorohydrin on an industrial scale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Wind power is a rapidly developing, low-emission form of energy production. In Fin-land, the official objective is to increase wind power capacity from the current 1 005 MW up to 3 500–4 000 MW by 2025. By the end of April 2015, the total capacity of all wind power project being planned in Finland had surpassed 11 000 MW. As the amount of projects in Finland is record high, an increasing amount of infrastructure is also being planned and constructed. Traditionally, these planning operations are conducted using manual and labor-intensive work methods that are prone to subjectivity. This study introduces a GIS-based methodology for determining optimal paths to sup-port the planning of onshore wind park infrastructure alignment in Nordanå-Lövböle wind park located on the island of Kemiönsaari in Southwest Finland. The presented methodology utilizes a least-cost path (LCP) algorithm for searching of optimal paths within a high resolution real-world terrain dataset derived from airborne lidar scannings. In addition, planning data is used to provide a realistic planning framework for the anal-ysis. In order to produce realistic results, the physiographic and planning datasets are standardized and weighted according to qualitative suitability assessments by utilizing methods and practices offered by multi-criteria evaluation (MCE). The results are pre-sented as scenarios to correspond various different planning objectives. Finally, the methodology is documented by using tools of Business Process Management (BPM). The results show that the presented methodology can be effectively used to search and identify extensive, 20 to 35 kilometers long networks of paths that correspond to certain optimization objectives in the study area. The utilization of high-resolution terrain data produces a more objective and more detailed path alignment plan. This study demon-strates that the presented methodology can be practically applied to support a wind power infrastructure alignment planning process. The six-phase structure of the method-ology allows straightforward incorporation of different optimization objectives. The methodology responds well to combining quantitative and qualitative data. Additional-ly, the careful documentation presents an example of how the methodology can be eval-uated and developed as a business process. This thesis also shows that more emphasis on the research of algorithm-based, more objective methods for the planning of infrastruc-ture alignment is desirable, as technological development has only recently started to realize the potential of these computational methods.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This research is a self-study into my life as an athlete, elementary school teacher, leamer, and as a teacher educator/academic. Throughout the inquiry, I explore how my beliefs and values infused my lived experiences and ultimately influenced my constructivist, humanist, and ultimately my holistic teaching and learning practice which at times disrupted the status quo. I have written a collection of narratives (data generation) which embodied my identity as an unintelligent student/leamer, a teacher/learner, an experiential learner, a tenacious participant, and a change agent to name a few. As I unpack my stories and hermeneutically reconstruct their intent, I question their meaning as I explore how I can improve my teaching and learning practice and potentially effect positive change when instructing beginning teacher candidates at a Faculty of Education. At the outset I situate my story and provide the necessary political, social, and cultural background information to ground my research. I follow this with an in depth look at the elements that interconnect the theoretical framework of this self-study by presenting the notion of writing at the boundaries through auto ethnography (Ellis, 2000; Ellis & Bochner, 2004) and writing as a method of inquiry (Richardson, 2000). The emergent themes of experiential learning, identity, and embodied knowing surfaced during the data generation phase. I use the Probyn' s (1990) .. metaphor of locatedness to unpack these themes and ponder the question, Where is experience located? I deepen the exploration by layering Drake's (2007) KnowlDo/Be framework alongside locatedness and offer descriptions of learning moments grounded in pedagogical theories. In the final phase, I introduce thirdspace theory (Bhabha, 1994; Soja, 1996) as a space that allowed me to puzzle educational dilemmas and begin to reconcile the binaries that existed in my life both personally, and professionally. I end where I began by revisiting the questions that drove this study. In addition, Ireflect upon the writing process and the challenges that I encountered while immersed in this approach and contemplate the relevance of conducting a self-study. I leave the reader with what is waiting for me on the other side of the gate, for as Henry James suggested, "Experience is never limited, and it is never complete."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

(A) Solid phase synthesis of oligonucleotides are well documented and are extensively studied as the demands continue to rise with the development of antisense, anti-gene, RNA interference, and aptamers. Although synthesis of RNA sequences faces many challenges, most notably the choice of the 2' -hydroxy protecting group, modified 2' -O-Cpep protected ribonucleotides were synthesized as alternitive building blocks. Altering phosphitylation procedures to incorporate 3' -N,N-diethyl phosphoramidites enhanced the overall reactivity, thus, increased the coupling efficiency without loss of integrety. Furthermore, technical optimizations of solid phase synthesis cycles were carried out to allow for successful synthesis of a homo UIO sequences with a stepwise coupling efficiency reaching 99% and a final yield of 91 %. (B) Over the past few decades, dipyrrometheneboron difluoride (BODIPY) has gained recognition as one of the most versatile fluorophores. Currently, BODIPY labeling of oligonucleotides are carried out post-synthetically and to date, there lacks a method that allows for direct incorporation of BODIPY into oligonucleotides during solid phase synthesis. Therefore, synthesis of BODIPY derived phosphoramidites will provide an alternative method in obtaining fluorescently labelled oligonucleotides. A method for the synthesis and incorporation of the BODIPY analogues into oligonucleotides by phosphoramidite chemistry-based solid phase DNA synthesis is reported here. Using this approach, BODIPY-labeled TlO homopolymer and ISIS 5132 were successfully synthesized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gene doping is the most recent addition to the list of banned practices formulated by the World Anti-doping Agency. It is a subset of doping that utilizes the technology involved in gene therapy. The latter is still in the experimental phase but has the potential to be used as a type of medical treatment involving alterations of a patient‘s genes. I apply a pragmatic form of ethical inquiry to evaluate the application of this medical innovation in the context of sport for performance-enhancement purposes and how it will affect sport, the individual, society and humanity at large. I analyze the probable ethical implications that will emerge from such procedures in terms of values that lie at the heart of the major arguments offered by scholars on both affirmative and opposing sides of the debate on gene doping, namely fairness, autonomy and the conception of what it means to be human.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Chlorhexidine is an effective antiseptic used widely in disinfecting products (hand soap), oral products (mouthwash), and is known to have potential applications in the textile industry. Chlorhexidine has been studied extensively through a biological and biochemical lens, showing evidence that it attacks the semipermeable membrane in bacterial cells. Although extremely lethal to bacterial cells, the present understanding of the exact mode of action of chlorhexidine is incomplete. A biophysical approach has been taken to investigate the potential location of chlorhexidine in the lipid bilayer. Deuterium nuclear magnetic resonance was used to characterize the molecular arrangement of mixed phospholipid/drug formulations. Powder spectra were analyzed using the de-Pake-ing technique, a method capable of extracting both the orientation distribution and the anisotropy distribution functions simultaneously. The results from samples of protonated phospholipids mixed with deuterium-labelled chlorhexidine are compared to those from samples of deuterated phospholipids and protonated chlorhexidine to determine its location in the lipid bilayer. A series of neutron scattering experiments were also conducted to study the biophysical interaction of chlorhexidine with a model phospholipid membrane of DMPC, a common saturated lipid found in bacterial cell membranes. The results found the hexamethylene linker to be located at the depth of the glycerol/phosphate region of the lipid bilayer. As drug concentration was increased in samples, a dramatic decrease in bilayer thickness was observed. Differential scanning calorimetry experiments have revealed a depression of the DMPC bilayer gel-to-lamellar phase transition temperature with an increasing drug concentration. The enthalpy of the transition remained the same for all drug concentrations, indicating a strictly drug/headgroup interaction, thus supporting the proposed location of chlorhexidine. In combination, these results lead to the hypothesis that the drug is folded approximately in half on its hexamethylene linker, with the hydrophobic linker at the depth of the glycerol/phosphate region of the lipid bilayer and the hydrophilic chlorophenyl groups located at the lipid headgroup. This arrangement seems to suggest that the drug molecule acts as a wedge to disrupt the bilayer. In vivo, this should make the cell membrane leaky, which is in agreement with a wide range of bacteriological observations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le cancer est considéré comme l’une des principales causes de morbidité et de mortalité et, en Espagne, représente à lui seul 25% du taux de mortalité globale. Lorsqu’une personne et sa famille font l’expérience de traverser la phase avancée du cancer, celles-ci vivent un grand choc émotionnel où les souffrances physique, psychique et spirituelle peuvent être présentes. L’information donnée par les professionnels de la santé aux membres de la famille, incluant la personne atteinte, en ce qui concerne le diagnostic et le pronostic du cancer est maintenant plus fréquente dans le contexte méditerranéen. Il n'est pas clair, toutefois, comment cette nouvelle approche est vécue par les familles. C’est pourquoi, le but de cette recherche qualitative de type phénoménologique est d’explorer la signification de l’expérience de familles dont l’un des membres est atteint d’un cancer terminal, alors que tous connaissent le pronostic de la maladie. Les résultats obtenus reposent sur l’analyse en profondeur d’entrevues réalisées auprès de quatre couples. L’analyse des données, à l’aide de la méthode phénoménologique de Giorgi (1997), fait émerger deux thèmes centraux caractérisant la signification de cette expérience de la phase palliative de cancer, alors que l’information sur le mauvais pronostic est connue tant par la personne atteinte que sa famille. Le premier thème central est celui de vivre intensément la perte de la vie rêvée et comporte le vécu suite au choc du pronostic fatal, le fait de vivre constamment des sentiments et des émotions liés à différentes pertes telles que la tristesse, la frustration, l’inquiétude et l’incertitude, et l’espoir de ne pas souffrir. Le deuxième thème central qui ressort est le développement de stratégies par les couples participants afin de rendre leur vie plus supportable. Ces stratégies sont les suivantes : accueillir l’information et le soutien professionnel, retrouver une certaine normalité dans la vie quotidienne, profiter de la vie, recevoir l’aide de la famille et des amis, maintenir une communication cognitive et instrumentale ouverte, se protéger au niveau émotionnel et envisager l’avenir sans la personne aimée. Tous ces éléments, dans le contexte individuel de vie de chaque famille transforment chacun de ces vécus en une expérience unique qui doit être comprise et respectée comme telle par tous les professionnels de la santé impliqués. Les connaissances développées par cette recherche permettront aux infirmières de mieux comprendre l’expérience de la phase palliative du cancer pour des couples dont le diagnostic et le pronostic fatal sont connus par tous, ceci afin d’améliorer leur qualité des soins. Afin de poursuivre le développement du savoir infirmier, il est recommandé de poursuivre des études afin d’explorer plus en profondeur la communication au sein des couples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les tumeurs stromales gastrointestinales (GIST) sont les néoplasies mésenchymateuses les plus complexes du système gastrointestinal. Le traitement curatif standard de cette pathologie est la chirurgie avec l'obtention de marges microscopiques négatives. Les résultats impressionnants obtenus sur la prolongation de la survie avec l'administration d'imatinib (IM) chez les patients atteints de maladie métastatique et non-réséquable ont suggéré aux cliniciens que ce même médicament pourrait aussi collaborer à l'obtention de marges négatives plus aisément lors de cancer avancé. Jusqu'à présent, aucune étude prospective n'a caractérisée l'effet d'une thérapie néoadjuvante prolongée à l'IM sur la qualité de la résection chirurgicale subséquente. L'objectif de ce projet de maîtrise était d'évaluer l'efficacité de l'imatinib utilisé avant la chirurgie (néoadjuvant) jusqu'à l'obtention d'une réponse maximale, en vue d'augmenter le taux de résection microscopique complète (R0) dans le traitement chirurgical des GIST à haut risque de résection microscopique incomplète (R1) ou impossible (R2). Pour ce faire, une étude prospective multicentrique de phase II a été réalisée. Le traitement néoadjuvant à l'IM a été instauré chez des patients porteurs d'une GIST localement avancée ou métastatique. Au total, quatorze patients ont reçu une dose de 400-600 mg/d d'IM pour une durée de 6-12 mois avant la chirurgie. Quatorze patients ont été inclus dans l'étude. Onze ont eu une chirurgie à visée curative, un patient a démontré une maladie non-réséquable suite à une laparotomie exploratrice et deux patients ont refusé la chirurgie. Après un suivi moyen de 48 mois, tous les patients opérés étaient vivants et sept sans évidence de récidive. L'utilisation prolongée (12 mois) d'IM dans un contexte néoadjuvant est faisable, sécuritaire, efficace et comporte peu de toxicité. De plus, cette approche est associée à des hauts taux de résection complète (R0), tout en permettant une chirurgie moins extensive. Des études de phase III actuellement en cours sont nécessaires afin de confirmer nos résultats.