923 resultados para Symmetric cipher


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optimum experimental designs depend on the design criterion, the model and the design region. The talk will consider the design of experiments for regression models in which there is a single response with the explanatory variables lying in a simplex. One example is experiments on various compositions of glass such as those considered by Martin, Bursnall, and Stillman (2001). Because of the highly symmetric nature of the simplex, the class of models that are of interest, typically Scheff´e polynomials (Scheff´e 1958) are rather different from those of standard regression analysis. The optimum designs are also rather different, inheriting a high degree of symmetry from the models. In the talk I will hope to discuss a variety of modes for such experiments. Then I will discuss constrained mixture experiments, when not all the simplex is available for experimentation. Other important aspects include mixture experiments with extra non-mixture factors and the blocking of mixture experiments. Much of the material is in Chapter 16 of Atkinson, Donev, and Tobias (2007). If time and my research allows, I would hope to finish with a few comments on design when the responses, rather than the explanatory variables, lie in a simplex. References Atkinson, A. C., A. N. Donev, and R. D. Tobias (2007). Optimum Experimental Designs, with SAS. Oxford: Oxford University Press. Martin, R. J., M. C. Bursnall, and E. C. Stillman (2001). Further results on optimal and efficient designs for constrained mixture experiments. In A. C. Atkinson, B. Bogacka, and A. Zhigljavsky (Eds.), Optimal Design 2000, pp. 225–239. Dordrecht: Kluwer. Scheff´e, H. (1958). Experiments with mixtures. Journal of the Royal Statistical Society, Ser. B 20, 344–360. 1

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exam questions and solutions in PDF

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lecture notes in LaTex

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exam questions and solutions in LaTex

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lecture notes in PDF

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción La mutación genética Val30Met de la proteína transtiretina (TTR) es causante de la polineuropatía amiloidótica familiar, comprometiendo en fases iniciales las fibras nerviosas pequeñas (mielinizadas Aδ y amielínicas tipo C), involucradas en funciones autonómicas, nocicepción, percepción térmica y sudoración. Los métodos neurofisiológicos convencionales, no logran detectar dichas anormalidades, retardando el inicio de tratamientos específicos para la enfermedad. Metodología El objetivo principal fue evaluar el test de cuantificación sensitiva (QST) como método de detección temprana de anormalidades de fibra pequeña, en individuos Val30Met, seguidos en el Hospital Universitario Santa María, Lisboa. Se clasificaron los pacientes en 3 grupos, según sintomatología y examen neurológico. Se analizaron los umbrales para percepción de frío, dolor con el calor y vibración en los grupos, en correlación con controles sanos. Resultados 18 registros de controles sanos y 33 de individuos con la mutación, divididos en asintomáticos (24,2%), sintomáticos con examen neurológico normal (42,4%) y sintomáticos con examen neurológico anormal (33,3%). No se encontraron diferencias entre los pacientes asintomáticos y los controles. Los umbrales para frío (p=0,042) y en el dolor intermedio con el calor (HP 5) (p=0,007) se encuentran elevados en individuos Val30Met sintomáticos con examen normal. En los pacientes sintomáticos con alteraciones al examen, también se presentaron alteraciones en el intervalo entre el inicio y el dolor intermedio con el calor (HP 5-0,5) (p=0,009). Discusión Los umbrales de frío y de percepción de dolor con el calor, permiten detectar anormalidades en personas con la mutación TTR Val30Met, sintomáticos, incluyendo aquellos sin cambios objetivos al examen neurológico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta disertación busca estudiar los mecanismos de transmisión que vinculan el comportamiento de agentes y firmas con las asimetrías presentes en los ciclos económicos. Para lograr esto, se construyeron tres modelos DSGE. El en primer capítulo, el supuesto de función cuadrática simétrica de ajuste de la inversión fue removido, y el modelo canónico RBC fue reformulado suponiendo que des-invertir es más costoso que invertir una unidad de capital físico. En el segundo capítulo, la contribución más importante de esta disertación es presentada: la construcción de una función de utilidad general que anida aversión a la pérdida, aversión al riesgo y formación de hábitos, por medio de una función de transición suave. La razón para hacerlo así es el hecho de que los individuos son aversos a la pérdidad en recesiones, y son aversos al riesgo en auges. En el tercer capítulo, las asimetrías en los ciclos económicos son analizadas junto con ajuste asimétrico en precios y salarios en un contexto neokeynesiano, con el fin de encontrar una explicación teórica de la bien documentada asimetría presente en la Curva de Phillips.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, investment cost asymmetry is introduced in order to test wheter this kind of asymmetry can account for asymmetries in business cycles. By using a smooth transition function, asymmetric investment cost is modeled and introduced in a canonical RBC model. Simulations of the model with Perturbations Method (PM) are very close to simulations through Parameterized Expectations Algorithm (PEA), which allows the use of the former for the sake of time reduction and computational costs. Both symmetric and asymmetric models were simulated and compared. Deterministic and stochastic impulse-response excersices revealed that it is possible to adequately reproduce asymmetric business cycles by modeling asymmetric investment costs. Simulations also showed that higher order moments are insu_cient to detect asymmetries. Instead, methods such as Generalized Impulse Response Analysis (GIRA) and Nonlinear Econometrics prove to be more e_cient diagnostic tools.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We study competition in two sided markets with common network externality rather than with the standard inter-group e¤ects. This type of externality occurs when both groups bene t, possibly with di¤erent intensities, from an increase in the size of one group and from a decrease in the size of the other. We explain why common externality is relevant for the health and education sectors. We focus on the symmetric equilibrium and show that when the externality itself satis es an homogeneity condition then platforms pro ts and price structure have some speci c properties. Our results reveal how the rents coming from network externalities are shifted by platforms from one side to other, according to the homogeneity degree. In the speci c but realistic case where the common network externality is homogeneous of degree zero, platform s pro t do not depend on the intensity of the (common) network externality. This is in sharp contrast to conventional results stating that the presence of network externalities in a two-sided market structure increases the intensity of competition when the externality is positive (and decreases it when the externality is negative). Prices are a¤ected but in such a way that platforms only transfer rents from consumers to providers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We compute families of symmetric periodic horseshoe orbits in the restricted three-body problem. Both the planar and three-dimensional cases are considered and several families are found.We describe how these families are organized as well as the behavior along and among the families of parameters such as the Jacobi constant or the eccentricity. We also determine the stability properties of individual orbits along the families. Interestingly, we find stable horseshoe-shaped orbit up to the quite high inclination of 17◦

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Case-crossover is one of the most used designs for analyzing the health-related effects of air pollution. Nevertheless, no one has reviewed its application and methodology in this context. Objective: We conducted a systematic review of case-crossover (CCO) designs used to study the relationship between air pollution and morbidity and mortality, from the standpoint of methodology and application.Data sources and extraction: A search was made of the MEDLINE and EMBASE databases.Reports were classified as methodologic or applied. From the latter, the following information was extracted: author, study location, year, type of population (general or patients), dependent variable(s), independent variable(s), type of CCO design, and whether effect modification was analyzed for variables at the individual level. Data synthesis: The review covered 105 reports that fulfilled the inclusion criteria. Of these, 24 addressed methodological aspects, and the remainder involved the design’s application. In the methodological reports, the designs that yielded the best results in simulation were symmetric bidirectional CCO and time-stratified CCO. Furthermore, we observed an increase across time in the use of certain CCO designs, mainly symmetric bidirectional and time-stratified CCO. The dependent variables most frequently analyzed were those relating to hospital morbidity; the pollutants most often studied were those linked to particulate matter. Among the CCO-application reports, 13.6% studied effect modification for variables at the individual level.Conclusions: The use of CCO designs has undergone considerable growth; the most widely used designs were those that yielded better results in simulation studies: symmetric bidirectional and time-stratified CCO. However, the advantages of CCO as a method of analysis of variables at the individual level are put to little use

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es presenta un nou algorisme per a la diagonalització de matrius amb diagonal dominant. Es mostra la seva eficàcia en el tractament de matrius no simètriques, amb elements definits sobre el cos complex i, fins i tot, de grans dimensions. Es posa de manifest la senzillesa del mètode així com la facilitat d'implementació en forma de codi de programació. Es comenten els seus avantatges i característiques limitants, així com algunes de les millores que es poden implementar. Finalment, es mostren alguns exemples numèrics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La present tesi, tot i que emmarcada dins de la teoria de les Mesures Semblança Molecular Quántica (MQSM), es deriva en tres àmbits clarament definits: - La creació de Contorns Moleculars de IsoDensitat Electrònica (MIDCOs, de l'anglès Molecular IsoDensity COntours) a partir de densitats electròniques ajustades. - El desenvolupament d'un mètode de sobreposició molecular, alternatiu a la regla de la màxima semblança. - Relacions Quantitatives Estructura-Activitat (QSAR, de l'anglès Quantitative Structure-Activity Relationships). L'objectiu en el camp dels MIDCOs és l'aplicació de funcions densitat ajustades, ideades inicialment per a abaratir els càlculs de MQSM, per a l'obtenció de MIDCOs. Així, es realitza un estudi gràfic comparatiu entre diferents funcions densitat ajustades a diferents bases amb densitats obtingudes de càlculs duts a terme a nivells ab initio. D'aquesta manera, l'analogia visual entre les funcions ajustades i les ab initio obtinguda en el ventall de representacions de densitat obtingudes, i juntament amb els valors de les mesures de semblança obtinguts prèviament, totalment comparables, fonamenta l'ús d'aquestes funcions ajustades. Més enllà del propòsit inicial, es van realitzar dos estudis complementaris a la simple representació de densitats, i són l'anàlisi de curvatura i l'extensió a macromolècules. La primera observació correspon a comprovar no només la semblança dels MIDCOs, sinó la coherència del seu comportament a nivell de curvatura, podent-se així observar punts d'inflexió en la representació de densitats i veure gràficament aquelles zones on la densitat és còncava o convexa. Aquest primer estudi revela que tant les densitats ajustades com les calculades a nivell ab initio es comporten de manera totalment anàloga. En la segona part d'aquest treball es va poder estendre el mètode a molècules més grans, de fins uns 2500 àtoms. Finalment, s'aplica part de la filosofia del MEDLA. Sabent que la densitat electrònica decau ràpidament al allunyar-se dels nuclis, el càlcul d'aquesta pot ser obviat a distàncies grans d'aquests. D'aquesta manera es va proposar particionar l'espai, i calcular tan sols les funcions ajustades de cada àtom tan sols en una regió petita, envoltant l'àtom en qüestió. Duent a terme aquest procés, es disminueix el temps de càlcul i el procés esdevé lineal amb nombre d'àtoms presents en la molècula tractada. En el tema dedicat a la sobreposició molecular es tracta la creació d'un algorisme, així com la seva implementació en forma de programa, batejat Topo-Geometrical Superposition Algorithm (TGSA), d'un mètode que proporcionés aquells alineaments que coincideixen amb la intuïció química. El resultat és un programa informàtic, codificat en Fortran 90, el qual alinea les molècules per parelles considerant tan sols nombres i distàncies atòmiques. La total absència de paràmetres teòrics permet desenvolupar un mètode de sobreposició molecular general, que proporcioni una sobreposició intuïtiva, i també de forma rellevant, de manera ràpida i amb poca intervenció de l'usuari. L'ús màxim del TGSA s'ha dedicat a calcular semblances per al seu ús posterior en QSAR, les quals majoritàriament no corresponen al valor que s'obtindria d'emprar la regla de la màxima semblança, sobretot si hi ha àtoms pesats en joc. Finalment, en l'últim tema, dedicat a la Semblança Quàntica en el marc del QSAR, es tracten tres aspectes diferents: - Ús de matrius de semblança. Aquí intervé l'anomenada matriu de semblança, calculada a partir de les semblances per parelles d'entre un conjunt de molècules. Aquesta matriu és emprada posteriorment, degudament tractada, com a font de descriptors moleculars per a estudis QSAR. Dins d'aquest àmbit s'han fet diversos estudis de correlació d'interès farmacològic, toxicològic, així com de diverses propietats físiques. - Aplicació de l'energia d'interacció electró-electró, assimilat com a una forma d'autosemblança. Aquesta modesta contribució consisteix breument en prendre el valor d'aquesta magnitud, i per analogia amb la notació de l'autosemblança molecular quàntica, assimilar-la com a cas particular de d'aquesta mesura. Aquesta energia d'interacció s'obté fàcilment a partir de programari mecanoquàntic, i esdevé ideal per a fer un primer estudi preliminar de correlació, on s'utilitza aquesta magnitud com a únic descriptor. - Càlcul d'autosemblances, on la densitat ha estat modificada per a augmentar el paper d'un substituent. Treballs previs amb densitats de fragments, tot i donar molt bons resultats, manquen de cert rigor conceptual en aïllar un fragment, suposadament responsable de l'activitat molecular, de la totalitat de l'estructura molecular, tot i que les densitats associades a aquest fragment ja difereixen degut a pertànyer a esquelets amb diferents substitucions. Un procediment per a omplir aquest buit que deixa la simple separació del fragment, considerant així la totalitat de la molècula (calcular-ne l'autosemblança), però evitant al mateix temps valors d'autosemblança no desitjats provocats per àtoms pesats, és l'ús de densitats de Forats de fermi, els quals es troben definits al voltant del fragment d'interès. Aquest procediment modifica la densitat de manera que es troba majoritàriament concentrada a la regió d'interès, però alhora permet obtenir una funció densitat, la qual es comporta matemàticament igual que la densitat electrònica regular, podent-se així incorporar dins del marc de la semblança molecular. Les autosemblances calculades amb aquesta metodologia han portat a bones correlacions amb àcids aromàtics substituïts, podent així donar una explicació al seu comportament. Des d'un altre punt de vista, també s'han fet contribucions conceptuals. S'ha implementat una nova mesura de semblança, la d'energia cinètica, la qual consisteix en prendre la recentment desenvolupada funció densitat d'energia cinètica, la qual al comportar-se matemàticament igual a les densitats electròniques regulars, s'ha incorporat en el marc de la semblança. A partir d'aquesta mesura s'han obtingut models QSAR satisfactoris per diferents conjunts moleculars. Dins de l'aspecte del tractament de les matrius de semblança s'ha implementat l'anomenada transformació estocàstica com a alternativa a l'ús de l'índex Carbó. Aquesta transformació de la matriu de semblança permet obtenir una nova matriu no simètrica, la qual pot ser posteriorment tractada per a construir models QSAR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This CEPS Commentary argues that the way in which the burden of adjustment to the imbalances in the eurozone is borne almost exclusively by the deficit countries in the periphery produces a deflationary bias in the region as a whole. Against the threat of double-dip recession, Paul De Grauwe asserts that the adjustment could be done differently and calls for implementation of a more symmetric macroeconomic policy that reduces the deflationary bias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The influences of a substantial weakening of the Atlantic meridional overturning circulation (AMOC) on the tropical Pacific climate mean state, the annual cycle, and ENSO variability are studied using five different coupled general circulation models (CGCMs). In the CGCMs, a substantial weakening of the AMOC is induced by adding freshwater flux forcing in the northern North Atlantic. In response, the well-known surface temperature dipole in the low-latitude Atlantic is established, which reorganizes the large-scale tropical atmospheric circulation by increasing the northeasterly trade winds. This leads to a southward shift of the intertropical convergence zone (ITCZ) in the tropical Atlantic and also the eastern tropical Pacific. Because of evaporative fluxes, mixing, and changes in Ekman divergence, a meridional temperature anomaly is generated in the northeastern tropical Pacific, which leads to the development of a meridionally symmetric thermal background state. In four out of five CGCMs this leads to a substantial weakening of the annual cycle in the eastern equatorial Pacific and a subsequent intensification of ENSO variability due to nonlinear interactions. In one of the CGCM simulations, an ENSO intensification occurs as a result of a zonal mean thermocline shoaling. Analysis suggests that the atmospheric circulation changes forced by tropical Atlantic SSTs can easily influence the large-scale atmospheric circulation and hence tropical eastern Pacific climate. Furthermore, it is concluded that the existence of the present-day tropical Pacific cold tongue complex and the annual cycle in the eastern equatorial Pacific are partly controlled by the strength of the AMOC. The results may have important implications for the interpretation of global multidecadal variability and paleo-proxy data.