941 resultados para Differences-in-Differences method
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
Vector reconstruction of objects from an unstructured point cloud obtained with a LiDAR-based system (light detection and ranging) is one of the most promising methods to build three dimensional models of orchards. The cylinder fitting method for woody structure reconstruction of leafless trees from point clouds obtained with a mobile terrestrial laser scanner (MTLS) has been analysed. The advantage of this method is that it performs reconstruction in a single step. The most time consuming part of the algorithm is generation of the cylinder direction, which must be recalculated at the inclusion of each point in the cylinder. The tree skeleton is obtained at the same time as the cluster of cylinders is formed. The method does not guarantee a unique convergence and the reconstruction parameter values must be carefully chosen. A balanced processing of clusters has also been defined which has proven to be very efficient in terms of processing time by following the hierarchy of branches, predecessors and successors. The algorithm was applied to simulated MTLS of virtual orchard models and to MTLS data of real orchards. The constraints applied in the method have been reviewed to ensure better convergence and simpler use of parameters. The results obtained show a correct reconstruction of the woody structure of the trees and the algorithm runs in linear logarithmic time
Resumo:
La tesis que se presenta tiene como propósito la construcción automática de ontologías a partir de textos, enmarcándose en el área denominada Ontology Learning. Esta disciplina tiene como objetivo automatizar la elaboración de modelos de dominio a partir de fuentes información estructurada o no estructurada, y tuvo su origen con el comienzo del milenio, a raíz del crecimiento exponencial del volumen de información accesible en Internet. Debido a que la mayoría de información se presenta en la web en forma de texto, el aprendizaje automático de ontologías se ha centrado en el análisis de este tipo de fuente, nutriéndose a lo largo de los años de técnicas muy diversas provenientes de áreas como la Recuperación de Información, Extracción de Información, Sumarización y, en general, de áreas relacionadas con el procesamiento del lenguaje natural. La principal contribución de esta tesis consiste en que, a diferencia de la mayoría de las técnicas actuales, el método que se propone no analiza la estructura sintáctica superficial del lenguaje, sino que estudia su nivel semántico profundo. Su objetivo, por tanto, es tratar de deducir el modelo del dominio a partir de la forma con la que se articulan los significados de las oraciones en lenguaje natural. Debido a que el nivel semántico profundo es independiente de la lengua, el método permitirá operar en escenarios multilingües, en los que es necesario combinar información proveniente de textos en diferentes idiomas. Para acceder a este nivel del lenguaje, el método utiliza el modelo de las interlinguas. Estos formalismos, provenientes del área de la traducción automática, permiten representar el significado de las oraciones de forma independiente de la lengua. Se utilizará en concreto UNL (Universal Networking Language), considerado como la única interlingua de propósito general que está normalizada. La aproximación utilizada en esta tesis supone la continuación de trabajos previos realizados tanto por su autor como por el equipo de investigación del que forma parte, en los que se estudió cómo utilizar el modelo de las interlinguas en las áreas de extracción y recuperación de información multilingüe. Básicamente, el procedimiento definido en el método trata de identificar, en la representación UNL de los textos, ciertas regularidades que permiten deducir las piezas de la ontología del dominio. Debido a que UNL es un formalismo basado en redes semánticas, estas regularidades se presentan en forma de grafos, generalizándose en estructuras denominadas patrones lingüísticos. Por otra parte, UNL aún conserva ciertos mecanismos de cohesión del discurso procedentes de los lenguajes naturales, como el fenómeno de la anáfora. Con el fin de aumentar la efectividad en la comprensión de las expresiones, el método provee, como otra contribución relevante, la definición de un algoritmo para la resolución de la anáfora pronominal circunscrita al modelo de la interlingua, limitada al caso de pronombres personales de tercera persona cuando su antecedente es un nombre propio. El método propuesto se sustenta en la definición de un marco formal, que ha debido elaborarse adaptando ciertas definiciones provenientes de la teoría de grafos e incorporando otras nuevas, con el objetivo de ubicar las nociones de expresión UNL, patrón lingüístico y las operaciones de encaje de patrones, que son la base de los procesos del método. Tanto el marco formal como todos los procesos que define el método se han implementado con el fin de realizar la experimentación, aplicándose sobre un artículo de la colección EOLSS “Encyclopedia of Life Support Systems” de la UNESCO. ABSTRACT The purpose of this thesis is the automatic construction of ontologies from texts. This thesis is set within the area of Ontology Learning. This discipline aims to automatize domain models from structured or unstructured information sources, and had its origin with the beginning of the millennium, as a result of the exponential growth in the volume of information accessible on the Internet. Since most information is presented on the web in the form of text, the automatic ontology learning is focused on the analysis of this type of source, nourished over the years by very different techniques from areas such as Information Retrieval, Information Extraction, Summarization and, in general, by areas related to natural language processing. The main contribution of this thesis consists of, in contrast with the majority of current techniques, the fact that the method proposed does not analyze the syntactic surface structure of the language, but explores his deep semantic level. Its objective, therefore, is trying to infer the domain model from the way the meanings of the sentences are articulated in natural language. Since the deep semantic level does not depend on the language, the method will allow to operate in multilingual scenarios, where it is necessary to combine information from texts in different languages. To access to this level of the language, the method uses the interlingua model. These formalisms, coming from the area of machine translation, allow to represent the meaning of the sentences independently of the language. In this particular case, UNL (Universal Networking Language) will be used, which considered to be the only interlingua of general purpose that is standardized. The approach used in this thesis corresponds to the continuation of previous works carried out both by the author of this thesis and by the research group of which he is part, in which it is studied how to use the interlingua model in the areas of multilingual information extraction and retrieval. Basically, the procedure defined in the method tries to identify certain regularities at the UNL representation of texts that allow the deduction of the parts of the ontology of the domain. Since UNL is a formalism based on semantic networks, these regularities are presented in the form of graphs, generalizing in structures called linguistic patterns. On the other hand, UNL still preserves certain mechanisms of discourse cohesion from natural languages, such as the phenomenon of the anaphora. In order to increase the effectiveness in the understanding of expressions, the method provides, as another significant contribution, the definition of an algorithm for the resolution of pronominal anaphora limited to the model of the interlingua, in the case of third person personal pronouns when its antecedent is a proper noun. The proposed method is based on the definition of a formal framework, adapting some definitions from Graph Theory and incorporating new ones, in order to locate the notions of UNL expression and linguistic pattern, as well as the operations of pattern matching, which are the basis of the method processes. Both the formal framework and all the processes that define the method have been implemented in order to carry out the experimentation, applying on an article of the "Encyclopedia of Life Support Systems" of the UNESCO-EOLSS collection.
Resumo:
La colonia experimental de Schorlemerallee y las villas Am Rupenhorn son dos proyectos concluidos en 1930 por los hermanos Wassili y Hans Luckhardt con Alfons Anker en Berlín. Ambos proyectos forman parte del mismo proceso, que comienza en la Colonia -una exploración sobre el lenguaje moderno en una serie de fases sucesivas- y culmina con las Villas. Éstas últimas, realizadas inmediatamente después de la Colonia, son la síntesis de esa experiencia, aunque finalmente acabaron trascendiéndola, ya que se convirtieron en un modelo sobre la casa en la naturaleza, sobre la idea de la villa clásica y sobre los nuevos modos de habitar, alcanzando con el tiempo la condición de canon moderno. A pesar de ello, no es esta condición lo más importante. Lo singular en este caso, es el propio proceso de proyecto –Colonia versus Villas- un verdadero experimento en su concepción, método y resultados, a través del cual sus autores investigan nuevas tecnologías aplicadas a nuevas formas de habitar y desarrollan un nuevo lenguaje, cuyo resultado son unos prototipos tecnológicos, con los que pretenden, como diría Mies van der Rohe: “Me he esforzado por construir una arquitectura para una sociedad tecnológica. He intentado que todo resultara razonable y claro.....para que cualquiera pueda hacer arquitectura.” El momento y lugar no pueden ser más propicios: Berlín entre 1924 y 1930, en el mismo origen del Movimiento Moderno. El experimento se plantea con auténtico rigor científico. Los arquitectos diseñan, construyen y financian su proyecto, controlando todas sus variables. Especialmente, por lo insólito, es el control de la variable económica. Porque este factor, la economía, es para ellos una clave fundamental del proceso. Se trataba de demostrar que la Nueva Arquitectura (o Neues Bauen, como les gustaba denominarla) era capaz de construir mejor y más rápido la vivienda para una nueva sociedad. La revolución y la vanguardia van de la mano: son el Zeitgeist o espíritu de la época, un contexto que es parte sustancial del proceso, y como lo calificarían los Smithson, un contexto heroico. El concepto se centra en la tríada Bauhaus: diseño + tecnología x economía. En cuanto al método, se fijan una serie de parámetros –las variables del experimento- que se agrupan en tres categorías distintas: topología, tipología y tecnología. La combinación de las variables de cada categoría dará lugar a un sistema con unas características determinadas: una definición del espacio, una forma, un lenguaje y una tecnología, características que permiten establecer las reglas para su desarrollo. Los sistemas resultantes son tres, denominados según su doble condición tipológica/ tecnológica: 1. Sistema de muro de carga: Viviendas adosadas en zig-zag o Mauerwerksbauten. 2. Sistema de esqueleto de acero: Viviendas aisladas o Stahlskelettbauten 3. Sistema de hormigón armado: Viviendas en hilera recta o Betonbauten Las villas Am Rupenhorn se plantean a continuación como verificación de este proceso: la síntesis de las categorías desarrolladas en la Colonia. Pero llegan en un momento de gracia, justo cuando los Luckhardt y Anker se encuentran profundamente implicados en el proceso de desarrollo de un nuevo lenguaje y con la reciente experiencia de la Colonia, que ha sido un éxito en casi todos los aspectos posibles. “En 1930, están en la cumbre”, como diría su mejor crítico y antiguo colaborador: Achim Wendschuh. En las Villas, los arquitectos integran su lenguaje, ya plenamente moderno, con sus experiencias previas: las que los relacionan con su reciente expresionismo (que se podría calificar como Kunstwollen) y con la tradición clásica de la cultura arquitectónica alemana: el sentido del material que deben a Semper y la sensibilidad hacia el paisaje, que toman de Schinkel. El extraordinario interés de las Villas se debe a factores como el tratamiento de la relación dual, poco habitual en la arquitectura moderna, la síntesis de lenguajes y las circunstancias de su momento histórico, factores que las han convertido en una propuesta única e irrepetible de una de las vías experimentales más interesantes y desconocidas de la Modernidad. ABSTRACT The experimental Housing Estate of Schorlemerallee and the Am Rupenhorn Villas are two projects completed by the brothers Wassili and Hans Luckhardt with Alfons Anker in Berlin in 1930. Both projects are part of the same process, starting with the Housing Estate --an exploration of the modern language in a series of phases- which culminates with the Villas project. The Villas Am Ruperhorn, designed immediately after the Housing development, are the synthesis and crowning point of this experience, even finally over passing it, since they have become a model of the house in nature, related with both the ideal of the classical villa and the new ways of life, reaching the condition of a modern canon. However, this is not its most important issue. The most remarkable condition is the project process itself -Housing versus Villas- a true experiment in concept, method and results, in which the authors research new technologies for new ways of living, developing an innovative language, with results in new prototypes, in the way Mies van der Rohe was looking for: “I have tried to make an architecture for a technological society. I have wanted to keep everything reasonable and clear… to have an architecture that anybody can do." The time and place could not be more favourable: Berlin from 1924 to 1930, in the very origin of Modern Movement. The experiment takes place with genuine scientific accuracy. Architects design, build and finance their own project, controlling all variables. Especially, and quite unusual, the control of the economic variable. Precisely the economic factor is for them a fundamental key to the process. It was shown to prove that the new architecture (or Neues Bauen, as they liked to call it) was able to build not only faster, better and more efficient dwellings for a new society, but also at lower cost. Revolution and Avant-garde use to move forward together, because they share the Zeitgeist --or time's spirit--, a context which is a substantial part of the process, and as the Alison & Peter Smithsons would describe, an heroic context. The concept focuses on the Bauhaus triad: Design + Technology x Economy. For the method, a number of variables are fixed --the experimental parameters-- that are later grouped into three distinct categories: Topology, Typology and Technology. The combination of these variables within each category gives way to several systems, with specific characteristics: a definition of space, a form, a language and a technology, thus allowing to establish the rules for its development: The resulting systems are three, called by double typological / technological issue: 1. Terraced Housing in zig-zag or Mauerwerksbauten (bearing wall system) 2. Detached Housing or Stahlskelettbauten (steel skeleton system) 3. Terraced Housing in one row or Betonbauten (reinforced concrete system) The Am Rupenhorn Villas are planned as the check of this process: the synthesis of the categories developed all through the Housing Estate research. The Am Ruperhorn project is developed in a crucial moment, just as the Luckhardts and Anker are deeply involved in the definition process of a new language after the recent experience of Schorlemerallee, which has been a success in almost all possible aspects. "In 1930, they are on the top” has said his best critic and long-time collaborator, Achim Wendschuh. In the Villas, the authors make up their fully modern language with their own background, related with their recent Expressionist trend (Kunstwollen) and with the classical tradition of the German architectural culture: the notion of material related with Semper and the sensible approach to the landscape, linked with Schinkel. Its extraordinary interest lay on diverse factors, such as dual relationships, unusual in modern architecture, synthesis of languages and circumstances of their historical moment, all factors that have become a unique and unrepeatable proposal in one of the most extraordinary experimental ways of Modernity.
Resumo:
A sensitive and rapid in situ method was developed to visualize sites of single-stranded (ss) DNA in cultured cells and in experimental test animals. Anti-bromodeoxyuridine antibody recognizes the halogenated base analog incorporated into chromosomal DNA only when substituted DNA is in the single strand form. After treatment of cells with DNA-damaging agents or γ irradiation, ssDNA molecules form nuclear foci in a dose-dependent manner within 60 min. The mammalian recombination protein Rad51 and the replication protein A then accumulate at sites of ssDNA and form foci, suggesting that these are sites of recombinational DNA repair.
Resumo:
Neste trabalho são feitas comparações entre os principais sinais horizontais de trânsito (Parada Obrigatória, Faixa de Pedestre e Lombada) padronizados pelo Código de Trânsito Brasileiro (CTB), com modelos alternativos que sofreram variações na forma e/ou cor, alguns deles já usados em algumas cidades brasileiras, com o objetivo de identificar se essas alterações melhoram ou não a percepção do sinal (impacto visual). Para isso são utilizados dois métodos da Psicofísica. Numa primeira etapa a análise é feita utilizando o Método de Comparação aos Pares, para um grupo de quatro estímulos para cada sinal estudado. Em seguida, aplicando o Método de Estimativa das Categorias, foi avaliado o impacto visual do sinal horizontal de Parada Obrigatória quanto à presença ou ausência de orla externa. Por fim, também pelo Método de Comparação aos Pares, foi avaliado o impacto visual causado pelo uso conjugado de sinais horizontais em cruzamentos não semaforizados. Foram estudadas as combinações entre os sinais de parada obrigatória, faixa de pedestres e faixa de retenção. Os resultados obtidos permitem inferir as seguintes conclusões: as alterações na forma e cor propostas para os sinais de parada obrigatória e faixa de pedestres causam maior impacto visual quando comparadas ao modelo padronizado pelo CTB mas, no caso das lombadas, a sinalização padrão mostrou-se ser mais perceptível; quanto a presença ou não da orla externa no sinal de parada obrigatória, esta demonstrou ser positiva; o uso conjugado dos sinais de parada obrigatória, faixa de pedestres e faixa de retenção é a combinação que mais desperta a atenção dos usuários.
Resumo:
En este trabajo se presenta un método para la detección de subjetividad a nivel de oraciones basado en la desambiguación subjetiva del sentido de las palabras. Para ello se extiende un método de desambiguación semántica basado en agrupamiento de sentidos para determinar cuándo las palabras dentro de la oración están siendo utilizadas de forma subjetiva u objetiva. En nuestra propuesta se utilizan recursos semánticos anotados con valores de polaridad y emociones para determinar cuándo un sentido de una palabra puede ser considerado subjetivo u objetivo. Se presenta un estudio experimental sobre la detección de subjetividad en oraciones, en el cual se consideran las colecciones del corpus MPQA y Movie Review Dataset, así como los recursos semánticos SentiWordNet, Micro-WNOp y WordNet-Affect. Los resultados obtenidos muestran que nuestra propuesta contribuye de manera significativa en la detección de subjetividad.
Resumo:
El método desarrollado por Edward Jenner para prevenir la viruela en 1798 se difundió con extraordinaria rapidez por Europa. Las primeras vacunaciones en diciembre de 1800 marcan en España el inicio de una práctica que fue promovida por la iniciativa particular de médicos y cirujanos en distintos núcleos del país. Ignacio María Ruiz de Luzuriaga, secretario de la Real Academia de Medicina de Madrid, fue una figura central en la propagación del método al establecer una red espontánea de corresponsales a los que remitía vacuna e información sobre cómo utilizarla. Esta correspondencia, conservada en un legajo de la Academia con el título de Papeles de la vacuna, muestra la relación mantenida no solo con otros facultativos, sino también con miembros de la nobleza y burguesía peninsular que contribuyeron a impulsar la práctica. Este estudio analiza las cartas remitidas por Francisco González de Castejón, Marqués de Vadillo, interesado inicialmente por preservar de la viruela a su hija, y que junto al médico Josef Ubis propagó la vacuna en la provincia de Soria y algunas localidades de Navarra entre los meses de agosto y diciembre de 1801.
Resumo:
A crioterapia é prática comum na medicina esportiva, pela praticidade, facilidade de acesso e baixo custo, possuindo vantajoso uso na Saúde Pública. No entanto, os efeitos analgésicos do gelo tem pouca base objetiva e sistematizada em termos de técnicas, duração e frequência. O objetivo deste estudo foi sintetizar através da revisão sistemática (RS) as evidências relativas à efetividade da crioterapia para o tratamento das entorses de tornozelo de atletas. A RS é um método de pesquisa observacional e retrospectivo, pelo qual se tratam artigos, preferencialmente Ensaios Clínicos Aleatórios – ECA, como sujeitos da investigação, com rigorosos critérios de inclusão e exclusão e, quando possível, realiza-se uma macro estatística dos resultados – metaanálise. No presente RS, foram consultados cinco bancos de dados - Medline, Embase, Cochrane, Lilacs e PEDro para buscar ECA sobre crioterapia com os desfechos dor, edema, rigidez e função. Resultados: 289 estudos foram identificados inicialmente, dos quais nove com tratamentos isolados ou associados à crioterapia, porém apenas um preencheu aos critérios de inclusão, cujo N era 121 atletas, dos quais 64 receberam a crioterapia (funcional) e 57 no grupo controle (imobilização). Maior probabilidade para o evento dor foi observada no grupo controle, após 3 e 12 meses. A RS revelou uma lacuna em ECA dentro do tema, mas não encontrou efeito adverso na prática da crioterapia, sendo um princípio analgésico importante, sobretudo em lesões de tecidos moles.
Resumo:
CONTENTS.--The nature and scope of the inquiry.--The geographical factor in history.--The human factor in history.--Method and results.
Resumo:
To v. 4 is prefixed: German, Austrian and Swiss measures, weights and coins ... Bearb. von Dr. Hubert Jansen (xlviii p.)
Resumo:
A novel one pot process has been developed for the preparation of PbS nanocrystals in the conjugated polymer poly 2-methoxy,5-(2 ethyl-hexyloxy-p-phenylenevinylene) (MEH-PPV). Current techniques for making such composite materials rely upon synthesizing the nanocrystals and conducting polymer separately, and subsequently mixing them. This multi-step technique has two serious drawbacks: templating surfactant must be removed before mixing, and co-solvent incompatibility causes aggregation. In our method, we eliminate the need for an initial surfactant by using the conducting polymer to terminate and template nanocrystal growth. Additionally, the final product is soluble in a single solvent. We present materials analysis which shows PbS nanocrystals can be grown directly in a conducting polymer, the resulting composite is highly ordered and nanocrystal size can be controlled.
Resumo:
Objective: To determine the role of the National Mental Health Strategy in the deinstitutionalization of patients in psychiatric hospitals in Queensland. Method: Regression analysis (using the maximum likelihood method) has been applied to relevant time-series datasets on public psychiatric institutions in Queensland. In particular, data on both patients and admissions per 10 000 population are analysed in detail from 1953-54 to the present, although data are presented from 1883-84. Results: These Queensland data indicate that deinstitutionalization was a continuing process from the 1950s to the present. However, it is clear that the experience varied from period to period. For example, the fastest change (in both patients and admissions) took place in the period 1953-54 to 1973-74, followed by the period 1974-75 to 1984-85. Conclusions: In large part, the two policies associated with deinstitutionalization, namely a discharge policy ('opening the back door') and an admission policy ('closing the front door') had been implemented before the advent of the National Mental Health Strategy in January 1993. Deinstitutionalization was most rapid in the 30-year period to the early 1980s: the process continued in the 1990s, but at a much slower rate. Deinstitutionalization was, in large part, over before the Strategy was developed and implemented.
Resumo:
Purpose A teaching model for trabeculectomy is described using pig eyes prepared in formalin. Method The model enables trainee surgeons to practice various aspects of tissue handling required for successful trabeculectomy including the construction of a fornix-based conjunctival flap, scleral flap with buried releasable sutures, and water-tight conjunctival closure. Results Exposure to the necessary skills required to perform trabeculectomy surgery can be improved by the use of wet laboratory practice. Conclusions Trabeculectomy surgery experience is becoming more limited as fewer procedures are being performed due to the efficacy of recent medications. Wet laboratories will become an increasingly important aspect of a comprehensive ophthalmology training programme.
Resumo:
Aim: To rapidly quantify hepatitis B virus (HBV) DNA by real-time PCR using efficient TaqMan probe and extraction methods of virus DNA. Methods: Three standards were prepared by cloning PCR products which targeted S, C and X region of HBV genome into pGEM-T vector respectively. A pair of primers and matched TaqMan probe were selected by comparing the copy number and the Ct values of HBV serum samples derived from the three different standard curves using certain serum DNA. Then the efficiency of six HBV DNA extraction methods including guanidinium isothiocyanate, proteinase K, NaI, NaOH lysis, alkaline lysis and simple boiling was analyzed in sample A, B and C by real-time PCR. Meanwhile, 8 clinical HBV serum samples were quantified. Results: The copy number of the same HBV serum sample originated from the standard curve of S, C and X regions was 5.7 × 104/ mL, 6.3 × 102/mL and 1.6 × 103/mL respectively. The relative Ct value was 26.6, 31.8 and 29.5 respectively. Therefore, primers and matched probe from S region were chosen for further optimization of six extraction methods. The copy number of HBV serum samples A, B and C was 3.49 × 109/mL, 2.08 × 106/mL and 4.40 × 107/mL respectively, the relative Ct value was 19.9, 30 and 26.2 in the method of NaOH lysis, which was the efficientest among six methods. Simple boiling showed a slightly lower efficiency than NaOH lysis. Guanidinium isothiocyanate, proteinase K and NaI displayed that the copy number of HBV serum sample A, B and C was around 105/ mL, meanwhile the Ct value was about 30. Alkaline failed to quantify the copy number of three HBV serum samples, Standard deviation (SD) and coefficient variation (CV) were very low in all 8 clinical HBV serum samples, showing that quantification of HBV DNA in triplicate was reliable and accurate. Conclusion: Real-time PCR based on optimized primers and TaqMan probe from S region in combination with NaOH lysis is a simple, rapid and accurate method for quantification of HBV serum DNA. © 2006 The WJG Press. All rights reserved.