851 resultados para Refinement of (SOR1NM2)
Resumo:
Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.
Resumo:
Les changements technologiques ont des effets structurants sur l’organisation des soins dans notre système de santé. Les professionnels de la santé et les patients – les principaux utilisateurs des innovations médicales – sont des acteurs clés dans les trajectoires suivies par les nouvelles technologies en santé. Pour développer des technologies médicales plus efficaces, sécuritaires et conviviales, plusieurs proposent d’intensifier la collaboration entre les utilisateurs et les développeurs. Cette recherche s’intéresse à cette prémisse sur la participation des utilisateurs dans les processus d’innovation médicale. L'objectif général de cette recherche est de mieux comprendre la collaboration entre les utilisateurs et les développeurs impliqués dans la transformation des innovations médicales. Adoptant un cadre d’analyse sociotechnique, cette thèse par articles s’articule autour de trois objectifs : 1) décrire comment la littérature scientifique définit les objectifs, les méthodes et les enjeux de l’engagement des utilisateurs dans le développement des innovations médicales; 2) analyser les perspectives d’utilisateurs et de développeurs de technologies médicales quant à leur collaboration dans le processus d’innovation; et 3) analyser comment sont mobilisés, en pratique, des utilisateurs dans le développement d’une innovation médicale. Le premier objectif s’appuie sur une synthèse structurée des écrits scientifiques (n=101) portant sur le phénomène de la participation des utilisateurs dans les processus d’innovation médicale. Cette synthèse a dégagé les méthodes appliquées ou proposées pour faire participer les utilisateurs, les arguments normatifs véhiculés ainsi que les principaux enjeux soulevés. Le deuxième objectif repose sur l’analyse de trois groupes de discussion délibératifs et d'une plénière impliquant des utilisateurs et des développeurs (n=19) de technologies médicales. L’analyse a permis d’examiner leurs perspectives à l'égard de diverses approches de collaboration dans les processus d'innovation. Le troisième objectif implique l’étude d’une innovation en électrophysiologie lors de la phase de recherche clinique. Cette étude de cas unique s'appuie sur une analyse qualitative d'études cliniques (n=57) et des éditoriaux et synthèses de connaissances dans des revues médicales spécialisées (n=15) couvrant une période de dix ans (1999 à 2008) ainsi que des entrevues semi-dirigées avec des acteurs clés impliqués dans le processus d’innovation (n=3). Cette étude a permis de mieux comprendre comment des utilisateurs donne un sens, s’approprient et légitiment une innovation médicale en contexte de recherche clinique. La contribution générale de cette thèse consiste en une meilleure compréhension de l’apport des utilisateurs dans les processus d’innovation médicale et de sa capacité à aligner plus efficacement le développement technologique avec les objectifs du système de santé.
Resumo:
Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.
Resumo:
Les protéines sont au coeur de la vie. Ce sont d'incroyables nanomachines moléculaires spécialisées et améliorées par des millions d'années d'évolution pour des fonctions bien définies dans la cellule. La structure des protéines, c'est-à-dire l'arrangement tridimensionnel de leurs atomes, est intimement liée à leurs fonctions. L'absence apparente de structure pour certaines protéines est aussi de plus en plus reconnue comme étant tout aussi cruciale. Les protéines amyloïdes en sont un exemple marquant : elles adoptent un ensemble de structures variées difficilement observables expérimentalement qui sont associées à des maladies neurodégénératives. Cette thèse, dans un premier temps, porte sur l'étude structurelle des protéines amyloïdes bêta-amyloïde (Alzheimer) et huntingtine (Huntington) lors de leur processus de repliement et d'auto-assemblage. Les résultats obtenus permettent de décrire avec une résolution atomique les interactions des ensembles structurels de ces deux protéines. Concernant la protéine bêta-amyloïde (AB), nos résultats identifient des différences structurelles significatives entre trois de ses formes physiologiques durant ses premières étapes d'auto-assemblage en environnement aqueux. Nous avons ensuite comparé ces résultats avec ceux obtenus au cours des dernières années par d'autres groupes de recherche avec des protocoles expérimentaux et de simulations variés. Des tendances claires émergent de notre comparaison quant à l'influence de la forme physiologique de AB sur son ensemble structurel durant ses premières étapes d'auto-assemblage. L'identification des propriétés structurelles différentes rationalise l'origine de leurs propriétés d'agrégation distinctes. Par ailleurs, l'identification des propriétés structurelles communes offrent des cibles potentielles pour des agents thérapeutiques empêchant la formation des oligomères responsables de la neurotoxicité. Concernant la protéine huntingtine, nous avons élucidé l'ensemble structurel de sa région fonctionnelle située à son N-terminal en environnement aqueux et membranaire. En accord avec les données expérimentales disponibles, nos résultats sur son repliement en environnement aqueux révèlent les interactions dominantes ainsi que l'influence sur celles-ci des régions adjacentes à la région fonctionnelle. Nous avons aussi caractérisé la stabilité et la croissance de structures nanotubulaires qui sont des candidats potentiels aux chemins d'auto-assemblage de la région amyloïde de huntingtine. Par ailleurs, nous avons également élaboré, avec un groupe d'expérimentateurs, un modèle détaillé illustrant les principales interactions responsables du rôle d'ancre membranaire de la région N-terminal, qui sert à contrôler la localisation de huntingtine dans la cellule. Dans un deuxième temps, cette thèse porte sur le raffinement d'un modèle gros-grain (sOPEP) et sur le développement d'un nouveau modèle tout-atome (aaOPEP) qui sont tous deux basés sur le champ de force gros-grain OPEP, couramment utilisé pour l'étude du repliement des protéines et de l'agrégation des protéines amyloïdes. L'optimisation de ces modèles a été effectuée dans le but d'améliorer les prédictions de novo de la structure de peptides par la méthode PEP-FOLD. Par ailleurs, les modèles OPEP, sOPEP et aaOPEP ont été inclus dans un nouveau code de dynamique moléculaire très flexible afin de grandement simplifier leurs développements futurs.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
This thesis aims at empowering software customers with a tool to build software tests them selves, based on a gradual refinement of natural language scenarios into executable visual test models. The process is divided in five steps: 1. First, a natural language parser is used to extract a graph of grammatical relations from the textual scenario descriptions. 2. The resulting graph is transformed into an informal story pattern by interpreting structurization rules based on Fujaba Story Diagrams. 3. While the informal story pattern can already be used by humans the diagram still lacks technical details, especially type information. To add them, a recommender based framework uses web sites and other resources to generate formalization rules. 4. As a preparation for the code generation the classes derived for formal story patterns are aligned across all story steps, substituting a class diagram. 5. Finally, a headless version of Fujaba is used to generate an executable JUnit test. The graph transformations used in the browser application are specified in a textual domain specific language and visualized as story pattern. Last but not least, only the heavyweight parsing (step 1) and code generation (step 5) are executed on the server side. All graph transformation steps (2, 3 and 4) are executed in the browser by an interpreter written in JavaScript/GWT. This result paves the way for online collaboration between global teams of software customers, IT business analysts and software developers.
Resumo:
In early stages of architectural design, as in other design domains, the language used is often very abstract. In architectural design, for example, architects and their clients use experiential terms such as "private" or "open" to describe spaces. If we are to build programs that can help designers during this early-stage design, we must give those programs the capability to deal with concepts on the level of such abstractions. The work reported in this thesis sought to do that, focusing on two key questions: How are abstract terms such as "private" and "open" translated into physical form? How might one build a tool to assist designers with this process? The Architect's Collaborator (TAC) was built to explore these issues. It is a design assistant that supports iterative design refinement, and that represents and reasons about how experiential qualities are manifested in physical form. Given a starting design and a set of design goals, TAC explores the space of possible designs in search of solutions that satisfy the goals. It employs a strategy we've called dependency-directed redesign: it evaluates a design with respect to a set of goals, then uses an explanation of the evaluation to guide proposal and refinement of repair suggestions; it then carries out the repair suggestions to create new designs. A series of experiments was run to study TAC's behavior. Issues of control structure, goal set size, goal order, and modification operator capabilities were explored. In addition, TAC's use as a design assistant was studied in an experiment using a house in the process of being redesigned. TAC's use as an analysis tool was studied in an experiment using Frank Lloyd Wright's Prairie houses.
Resumo:
“What is value in product development?” is the key question of this paper. The answer is critical to the creation of lean in product development. By knowing how much value is added by product development (PD) activities, decisions can be more rationally made about how to allocate resources, such as time and money. In order to apply the principles of Lean Thinking and remove waste from the product development system, value must be precisely defined. Unfortunately, value is a complex entity that is composed of many dimensions and has thus far eluded definition on a local level. For this reason, research has been initiated on “Measuring Value in Product Development.” This paper serves as an introduction to this research. It presents the current understanding of value in PD, the critical questions involved, and a specific research design to guide the development of a methodology for measuring value. Work in PD value currently focuses on either high-level perspectives on value, or detailed looks at the attributes that value might have locally in the PD process. Models that attempt to capture value in PD are reviewed. These methods, however, do not capture the depth necessary to allow for application. A methodology is needed to evaluate activities on a local level to determine the amount of value they add and their sensitivity with respect to performance, cost, time, and risk. Two conceptual tools are proposed. The first is a conceptual framework for value creation in PD, referred to here as the Value Creation Model. The second tool is the Value-Activity Map, which shows the relationships between specific activities and value attributes. These maps will allow a better understanding of the development of value in PD, will facilitate comparison of value development between separate projects, and will provide the information necessary to adapt process analysis tools (such as DSM) to consider value. The key questions that this research entails are: · What are the primary attributes of lifecycle value within PD? · How can one model the creation of value in a specific PD process? · Can a useful methodology be developed to quantify value in PD processes? · What are the tools necessary for application? · What PD metrics will be integrated with the necessary tools? The research milestones are: · Collection of value attributes and activities (September, 200) · Development of methodology of value-activity association (October, 2000) · Testing and refinement of the methodology (January, 2001) · Tool Development (March, 2001) · Present findings at July INCOSE conference (April, 2001) · Deliver thesis that captures a formalized methodology for defining value in PD (including LEM data sheets) (June, 2001) The research design aims for the development of two primary deliverables: a methodology to guide the incorporation of value, and a product development tool that will allow direct application.
Resumo:
Introducción: La escala de severidad en emergencias es una herramienta que ofrece seguridad a pacientes en servicios de urgencias. Este trabajo evalúa la aplicación de la escala ESI 4.0 en términos de oportunidad de atención y consumo de recursos en la Fundación Santa Fé de Bogotá, para comparar los resultados con parámetros estándar. Metodología Estudio observacional analítico de corte transversal. Se incluyeron 385 pacientes aleatorizados por nivel de atención. Se tomaron datos demográficos y variables como consumo de recursos y destino del paciente para su descripción y análisis. Resultados: El promedio de edad fue 44.9 años IC95%42.9–46.9, el 54.5% fueron mujeres. Se encontró un tiempo promedio de espera para nivel 1 de 1.39 min, para el nivel 2 de 22.9 min 2, para el nivel 3 de 41.9 min, para el nivel 4 de 56.9 min y para el nivel 5 de 52.1 min. El tiempo promedio de estancia en urgencias fue 5.9 horas y el 78.9% consumió recursos. Al comparar los tiempos con estándares mundiales en el nivel 1, 2 y 3 son significativamente mayores (P<0,05), en el nivel 4 es similar (p0,51) y en el nivel 5 es significativamente menor (p=0,00) Discusión: La escala ESI 4.0 es una herramienta segura, con un comportamiento similar en oportunidad de atención y consumo de recursos con respecto a los estándares de cuidado en los servicios de urgencias.
Resumo:
Les dues proteïnes estudiades en aquest treball (ECP o RNasa 3 i RNasa 1ΔN7) pertanyen a la superfamília de la RNasa A i resulten d'especial interès per la seva potencial aplicació en la teràpia i/o diagnòstic del càncer. A més de la seva capacitat ribonucleolítica, l'ECP presenta d'altres activitats, com l'antibacteriana, l'helmintotòxica o la citotòxica contra cèl·lules i teixits de mamífers. Per la RNasa 1 de tipus pancreàtic expressada per les cèl·lules endotelials humanes també s'ha proposat un paper defensiu. La RNasa 1ΔN7, en canvi, no presenta aquest tipus d'accions biològiques, si bé cal destacar la menor afinitat que exhibeix enfront el seu inhibidor específic en relació a d'altres membres de la família. Tant l'ECP com la RNasa 1ΔN7 s'han cristal·litzat emprant la tècnica de la difusió de vapor en gotes penjants, i s'han determinat les seves estructures tridimensionals (3D) mitjançant el mètode del reemplaçament molecular. Per l'afinament de les estructures s'han usat dades fins a 1,75 i 1,90 Å respectivament. Ambdòs molècules exhibeixen el plegament típic + que caracteritza a tots els membres de la superfamília de la RNasa A. Tanmateix, les diferències que mostren en comparació amb l'estructura d'altres RNases permeten explicar, d'una banda, la baixa activitat ribonucleolítica d'aquests enzims i, de l'altra, les seves peculiaritats funcionals.
Resumo:
We report an extended version of our normal coordinate program ASYM40, which may be used to transform Cartesian force constants from ab initio calculations to a force field in nonredundant internal (symmetry) coordinates. When experimental data are available, scale factors for the theoretical force field may then be optimized by least-squares refinement. The alternative of refining an empirical force field to fit a wide variety of data, as with the previous version ASYM20, has been retained. We compare the results of least-squares refinement of the full harmonic force field with least-squares refinement of only the scale factors for an SCF calculated force field and conclude that the latter approach may be useful for large molecules where more sophisticated calculations are impractical. The refinement of scale factors for a theoretical force field is also useful when there are only limited spectroscopic data. The program will accept ab initio calculated force fields from any program that presents Cartesian force constants as output. The program is available through Quantum Chemistry Program Exchange.
Resumo:
Despite the wide use of Landscape Character Assessment (LCA) as a tool for landscape planning in NW Europe, there are few examples of its application in the Mediterranean. This paper reports on the results from the development of a typology for LCA in a study area of northern Sardinia, Italy to provide a spatial framework for the analysis of current patterns of cork oak distribution and future restoration of this habitat. Landscape units were derived from a visual interpretation of map data stored within a GIS describing the physical and cultural characteristics of the study area. The units were subsequently grouped into Landscape Types according to the similarity of shared attributes using Two Way Indicator Species Analysis (TWINSPAN). The preliminary results showed that the methodology classified distinct Landscape Types but, based on field observations, there is a need for further refinement of the classification. The distribution and properties of two main cork oak habitats types was examined within the identified Landscape Types namely woodlands and wood pastures using Patch Analyst. The results show very clearly a correspondence between the distribution of cork oak pastures and cork oak woodland and landscape types. This forms the basis of the development of strategies for the maintenance, restoration and recreation of these habitat types within the study area, ultimately for the whole island of Sardinia. Future work is required to improve the landscape characterisation , particularly with respect to cultural factors, and to determine the validity of the landscape spatial framework for the analysis of cork oak distribution as part of a programme of habitat restoration and re-creation.
Resumo:
A program is provided to determine structural parameters of atoms in or adsorbed on surfaces by refinement of atomistic models towards experimentally determined data generated by the normal incidence X-ray standing wave (NIXSW) technique. The method employs a combination of Differential Evolution Genetic Algorithms and Steepest Descent Line Minimisations to provide a fast, reliable and user friendly tool for experimentalists to interpret complex multidimensional NIXSW data sets.
Resumo:
We present a new approach that allows the determination and refinement of force field parameters for the description of disordered macromolecular systems from experimental neutron diffraction data obtained over a large Q range. The procedure is based on tight coupling between experimentally derived structure factors and computer modelling. By separating the potential into terms representing respectively bond stretching, angle bending and torsional rotation and by treating each of them separately, the various potential parameters are extracted directly from experiment. The procedure is illustrated on molten polytetrafluoroethylene.
Resumo:
In the European Union, first-tier assessment of the long-term risk to birds and mammals from pesticides is based on calculation of a deterministic long-term toxicity/exposure ratio(TERlt). The ratio is developed from generic herbivores and insectivores and applied to all species. This paper describes two case studies that implement proposed improvements to the way long-term risk is assessed. These refined methods require calculation of a TER for each of five identified phases of reproduction (phase-specific TERs) and use of adjusted No Observed Effect Levels (NOELs)to incorporate variation in species sensitivity to pesticides. They also involve progressive refinement of the exposure estimate so that it applies to particular species, rather than generic indicators, and relates spraying date to onset of reproduction. The effect of using these new methods on the assessment of risk is described. Each refinement did not necessarily alter the calculated TER value in a way that was either predictable or consistent across both case studies. However, use of adjusted NOELs always reduced TERs, and relating spraying date to onset of reproduction increased most phase-specific TERs. The case studies suggested that the current first-tier TERlt assessment may underestimate risk in some circumstances and that phase-specific assessments can help identify appropriate risk-reduction measures. The way in which deterministic phase-specific assessments can currently be implemented to enhance first-tier assessment is outlined.