980 resultados para Past events recollection
Resumo:
The video installations of Freya Powell's first exhibition in Barcelona call for an analysis of the links between memory and the archive, between compilation, registration, and the traces of History. Powell's work establishes a fine link between the memory of those sentenced to death in the United States, the memory of the Second World War, the artist's own memory, and the different world maps produced by colonial history. This link forces us to take into account our own connection not only with the voices and words that have been archived, but also with those voices that we want to hear and register.
Resumo:
BACKGROUND: Thrombin potently activates platelets through the protease-activated receptor PAR-1. Vorapaxar is a novel antiplatelet agent that selectively inhibits the cellular actions of thrombin through antagonism of PAR-1. METHODS: We randomly assigned 26,449 patients who had a history of myocardial infarction, ischemic stroke, or peripheral arterial disease to receive vorapaxar (2.5 mg daily) or matching placebo and followed them for a median of 30 months. The primary efficacy end point was the composite of death from cardiovascular causes, myocardial infarction, or stroke. After 2 years, the data and safety monitoring board recommended discontinuation of the study treatment in patients with a history of stroke owing to the risk of intracranial hemorrhage. RESULTS: At 3 years, the primary end point had occurred in 1028 patients (9.3%) in the vorapaxar group and in 1176 patients (10.5%) in the placebo group (hazard ratio for the vorapaxar group, 0.87; 95% confidence interval [CI], 0.80 to 0.94; P<0.001). Cardiovascular death, myocardial infarction, stroke, or recurrent ischemia leading to revascularization occurred in 1259 patients (11.2%) in the vorapaxar group and 1417 patients (12.4%) in the placebo group (hazard ratio, 0.88; 95% CI, 0.82 to 0.95; P=0.001). Moderate or severe bleeding occurred in 4.2% of patients who received vorapaxar and 2.5% of those who received placebo (hazard ratio, 1.66; 95% CI, 1.43 to 1.93; P<0.001). There was an increase in the rate of intracranial hemorrhage in the vorapaxar group (1.0%, vs. 0.5% in the placebo group; P<0.001). CONCLUSIONS: Inhibition of PAR-1 with vorapaxar reduced the risk of cardiovascular death or ischemic events in patients with stable atherosclerosis who were receiving standard therapy. However, it increased the risk of moderate or severe bleeding, including intracranial hemorrhage. (Funded by Merck; TRA 2P-TIMI 50 ClinicalTrials.gov number, NCT00526474.).
Resumo:
Even though patients who develop ischemic stroke despite taking antiplatelet drugs represent a considerable proportion of stroke hospital admissions, there is a paucity of data from investigational studies regarding the most suitable therapeutic intervention. There have been no clinical trials to test whether increasing the dose or switching antiplatelet agents reduces the risk for subsequent events. Certain issues have to be considered in patients managed for a first or recurrent stroke while receiving antiplatelet agents. Therapeutic failure may be due to either poor adherence to treatment, associated co-morbid conditions and diminished antiplatelet effects (resistance to treatment). A diagnostic work up is warranted to identify the etiology and underlying mechanism of stroke, thereby guiding further management. Risk factors (including hypertension, dyslipidemia and diabetes) should be treated according to current guidelines. Aspirin or aspirin plus clopidogrel may be used in the acute and early phase of ischemic stroke, whereas in the long-term, antiplatelet treatment should be continued with aspirin, aspirin/extended release dipyridamole or clopidogrel monotherapy taking into account tolerance, safety, adherence and cost issues. Secondary measures to educate patients about stroke, the importance of adherence to medication, behavioral modification relating to tobacco use, physical activity, alcohol consumption and diet to control excess weight should also be implemented.
Resumo:
SUMMARY Barrett's esophagus (BE) is an acquired condition in which the normal squamous epithelium in the distal esophagus is replaced by a metaplastic columnar epithelium, as a complication of chronic gastroesophageal reflux. The clinical significance of this disease is its associated predisposition to esophageal adenocarcinoma (EAC). EAC is a highly lethal disease. Better understanding of the pathogenesis of columnar metaplasia and its progression to cancer might allow the identification of biomarkers that can be used for early diagnosis, which will improve the patient survival. In this study, an improved protocol for methylation-sensitive single-strand conformation analysis, which is used to analyze promoter methylation, is proposed and a methylation-sensitive dot blot assay is described, which allows a rapid, easy, and sensitive detection of promoter methylation. Both methods were applied to study the methylation pattern of the APC promoter in histologically normal appearing gastric mucosa. The APC promoter showed monoallelic methylation, and because the methylated allele differed between the different gastric cell types, this corresponded to allelic exclusion. The APC methylation pattern was frequently altered in noimal gastric mucosa associated with neoplastic lesions, indicating that changes in the pattern of promoter methylation might precede the development of neoplasia, without accompanying histological manifestations. An epigenetic profile of 10 genes important in EAC was obtained in this study; 5 promoter genes (APC, TIMP3, TERT, CDKN2A and SFRP1) were found to be hypermethylated in the tumors. Furthermore, the promoter of APC, TIMP3 and TERT was frequently methylated in BE samples from EAC patients, but rarely in BE samples that did not progress to EAC. These three biomarkers might therefore be considered as potential predictive markers for increased EAC risk. Analysis of Wnt pathway alterations indicated that WNT2 ligand is overexpressed as early as the low-grade dysplastic stage and downregulation by promoter methylation of the SFRP1 gene occurrs already in the metaplastic lesions. Moreover, loss of APC expression is not the only factor involved in the activation of the Wnt pathway. These results indicate that a variety of biologic, mostly epigenetic events occurs very early in the carcinogenesis of BE. This new information might lead to improved early diagnosis of EAC and thus open the way to a possible application of these biomarkers in the prediction of increased EAC risk progression. RESUME L'oesophage de Barrett est une lésion métaplasique définie par le remplacement de la muqueuse malpighienne du bas oesophage par une muqueuse cylindrique glandulaire, suite à une agression chronique par du reflux gastro-esophagien. La plus importante signification clinique de cette maladie est sa prédisposition au développement d'un adénocarcinome. Le pronostic de l'adénocarcinome sur oesophage de Barrett est sombre. Seule une meilleure compréhension de la pathogenèse de l'épithélium métaplasique et de sa progression néoplasique permettrait l'identification de biomarqueurs pouvant être utilisés pour un diagnostic précoce ; la survie du patient serait ainsi augmentée. Dans cette étude, un protocole amélioré pour l'analyse de la méthylation par conformation simple brin est proposé. De plus, une technique d'analyse par dot blot permettant une détection rapide, facile et sensible de la méthylation d'un promoteur est décrite. Les deux méthodes ont été appliquées à l'étude de la méthylation du promoteur du gène APC dans des muqueuses gastriques histologiquement normales. Le promoteur APC a montré une méthylation monoallélique et, parce que les allèles méthylés différaient entre les différents types de cellules gastriques, celle-ci correspondait à une méthylation allélique exclusive. La méthylation d'APC a été trouvée fréquemment altérée dans la muqueuse gastrique normale associée à des lésions néoplasiques. Ceci indique que des changements dans la méthylation d'un promoteur peuvent précéder le développement d'une tumeur, et cela sans modification histologique. Un profil épigénétique des adénocarcinomes sur oesophage de Barrett a été obtenu dans cette étude. Cinq promoteurs (APC, TIMP3, TERT, CDKN2A et SFRP1) ont été trouvés hyperméthylés dans les tumeurs. Les promoteurs d'APC, TIMP3 et TERT étaient fréquemment méthylés dans l'épithélium métaplasique proche d'un adénocarcinome et rarement dans l'épithélium sans évolution néoplasique. Ces trois biomarkers pourraient par conséquent être considérés comme marqueur prédicatif d'un risque accru de développer une tumeur. L'analyse des altérations de la voie Wnt a montré que WNT2 est surexprimé déjà dans des dysplasies de bas-grade et que la dérégulation de SFRP1 par méthylation de son promoteur intervenait dans les lésions métaplasiques. Une perte d'expression d'APC n'est pas le seul facteur impliqué dans l'activation de cette voie. Ces résultats montrent qu'une grande diversité d'événements biologiques, principalement épigénétiques, surviennent très tôt lors de la carcinogenèse de l'oesophage de Barrett. Ces nouveaux éléments pourraient améliorer le diagnostic précoce et rendre possible l'application de ces biomarqueurs dans la prédiction d'un risque accru de développer un adénocarcinome sur un oesophage de Barrett.
Resumo:
BACKGROUND: Persons infected with human immunodeficiency virus (HIV) have increased rates of coronary artery disease (CAD). The relative contribution of genetic background, HIV-related factors, antiretroviral medications, and traditional risk factors to CAD has not been fully evaluated in the setting of HIV infection. METHODS: In the general population, 23 common single-nucleotide polymorphisms (SNPs) were shown to be associated with CAD through genome-wide association analysis. Using the Metabochip, we genotyped 1875 HIV-positive, white individuals enrolled in 24 HIV observational studies, including 571 participants with a first CAD event during the 9-year study period and 1304 controls matched on sex and cohort. RESULTS: A genetic risk score built from 23 CAD-associated SNPs contributed significantly to CAD (P = 2.9 × 10(-4)). In the final multivariable model, participants with an unfavorable genetic background (top genetic score quartile) had a CAD odds ratio (OR) of 1.47 (95% confidence interval [CI], 1.05-2.04). This effect was similar to hypertension (OR = 1.36; 95% CI, 1.06-1.73), hypercholesterolemia (OR = 1.51; 95% CI, 1.16-1.96), diabetes (OR = 1.66; 95% CI, 1.10-2.49), ≥ 1 year lopinavir exposure (OR = 1.36; 95% CI, 1.06-1.73), and current abacavir treatment (OR = 1.56; 95% CI, 1.17-2.07). The effect of the genetic risk score was additive to the effect of nongenetic CAD risk factors, and did not change after adjustment for family history of CAD. CONCLUSIONS: In the setting of HIV infection, the effect of an unfavorable genetic background was similar to traditional CAD risk factors and certain adverse antiretroviral exposures. Genetic testing may provide prognostic information complementary to family history of CAD.
Resumo:
L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Genetics is the study of heredity, which means the study of genes and factors related to all aspects of genes. The scientific history of genetics began with the works of Gregor Mendel in the mid-19th century. Prior to Mendel, genetics was primarily theoretical whilst, after Mendel, the science of genetics was broadened to include experimental genetics. Developments in all fields of genetics and genetic technology in the first half of the 20th century provided a basis for the later developments. In the second half of the 20th century, the molecular background of genetics has become more understandable. Rapid technological advancements, followed by the completion of Human Genome Project, have contributed a great deal to the knowledge of genetic factors and their impact on human life and diseases. Currently, more than 1800 disease genes have been identified, more than 2000 genetic tests have become available, and in conjunction with this at least 350 biotechnology-based products have been released onto the market. Novel technologies, particularly next generation sequencing, have dramatically accelerated the pace of biological research, while at the same time increasing expectations. In this paper, a brief summary of genetic history with short explanations of most popular genetic techniques is given.
Resumo:
An accumulation of years brings with it an accumulation of experiences. The revision of such experiences usually becomes more recurrent after retirement, a transition time from one period of life to another and, as such, a time in which we, human beings, have a tendency to take stock of our lives. This is actually one of the main issues present in Julian Barnes's last novel The Sense of an Ending (2011). When the main protagonist, a retired man quite comfortable and contented with his present life, receives an unexpected inheritance from the mother of a girlfriend from his university years, he is forced to track down a part of his life that he had left at the back of his mind a long time ago. As he explains his story, the protagonist and narrator of the novel raises a number of questions related to the quality and function of memory as one gets into old age. He experiments the unreliability of memory and questions to what extent memory is constructed through the remembered emotions that invaded him over that episode of his life rather than through the events as they actually took place. On the other hand, the act of revisiting and revising that specific episode, brings with it feelings of guilt and remorse as the protagonist realises that his past acts were not as noble as he remembered them to be. However, these acts are part of the past and they cannot be changed; thus, another question that the novel raises is how to account for those actions of which one does not feel proud and, more importantly, how to manage those bad memories as one gets older.
Resumo:
Follow-up of utilisation and prediction of primary health care and hospital care from the municipality point of view. Planning, follow-up, and evaluation of primary health care within municipality entail comprehensive information about factors that influence health. In addition to populationbased research, various statistical data and registries serve as sources of information. The present study examined utilisation of primary health care and hospital care with the existing databases, registries, and categorization of Diagnosis Related Groups (DRGs) from the municipality (purchaser) point of view. Research involving the cases of Paimio, Sauvo, and Turku as examples of municipalities pointed out that, even in the small municipalities, it is possible to assess and predict health services to be offered to the inhabitants by following databases and registries. Health-related databases and registries include a plenty of possible uses that have not adequately been employed at the level of municipality. Descriptive futures research and community analysis formed the framework of the study. Descriptive futures research may be used to establish predictions based on past developmental traditions, and quantitative time trend analyses may be employed to make estimations about future events. Community analysis will assist in making conclusions about population- based health care needs, in assessing the functionality or effectiveness of the health care system, and in appropriately targeting limited resources. The aim of the present study was to describe the health service profile so that the arrangements and planning of health services as well as the contract negotiations of hospital care become easier within municipalities. Another aim was to assess the application of Hilmo (registry for posting hospital care periods), Aitta and Sotka (statistical databases) for the purposes of resource planning in the procurement of hospital care. A third aim was to evaluate how the system of the DRGs adapts in the prediction of retaining health services within short (1-year), intermediate (5-year) and long range (10-15-year) intervals. The findings indicated that the follow-up of primary health care utilisation combined with follow-up of hospital care utilisation allows municipalities to plan and predict health services when databases are applied. Information about the past contacts with the databases has indicated that the health care culture and incidence of disease change rather slowly in the area of investigation. For the purposes of health care research, it is recommended that methods of application used in making predictions about health care utilisation need to be further developed
Resumo:
En el presente estudio hacemos una revisión del estado de conservación y las tendencias poblacionales de la codorniz común (Coturnix coturnix) desde 1900 hasta nuestros días. Algunos de los datos de los que disponemos son contradictorios con respecto al estado de la especie, que presenta ciertas características que dificultan el poder proporcionar estimas poblacionales fiables. Datos recientes sugieren claramente, tanto a escala local como a escala transnacional, que las poblaciones atlánticas de codorniz común han permanecido estables en las dos últimas décadas y que la práctica de liberar codornices criadas en granjas (híbridas con la codorniz japonesa, Coturnix japonica) con finalidades cinegéticas, no afectan significativamente a nuestras estimas. Por otra parte, los complejos patrones de desplazamiento de esta especie requieren especial atención. En este sentido, el análisis de recuperaciones de anillas puede aportar información relevante, especialmente de los movimientos nomádicos de codornices a la búsqueda de hábitats adecuados, tras la destrucción de los cultivos invernales de cereales debido a la siega. Así, al desarrollar un modelo de distribución de cría para esta especie, se debe incorporar continuamente información actualizada de los cambios estacionales de hábitat y clima, con el fin de obtener unas predicciones óptimas. En este sentido, por ejemplo, la inclusión de datos quincenales de índices de vegetación en los modelos de distribución ha dado muy buenos resultados. La obtención de predicciones fiables de los cambios de la distribución de la especie y de sus desplazamientos durante la estación de cría puede ser muy útil para un mejor conocimiento del estado de conservación y las tendencias poblacionales de la especie, así como para el diseño de futuras medidas de gestión.
Resumo:
The 2014 Santa Fe Bone Symposium provided a setting for the presentation and discussion of the clinical relevance of recent advances in the fields of osteoporosis and metabolic bone disease. The format included oral presentations of abstracts by endocrinology fellows, plenary lectures, panel discussions and breakout sessions, with ample opportunities for informal discussions before and after scheduled events. Topics addressed in these proceedings included a review of the important scientific publications in the past year, fracture prevention in patients with dysmobility and immobility, fracture liaison services for secondary fracture prevention, management of pre-menopausal osteoporosis, the role of bone microarchitecture in determining bone strength, measurement of microarchitecture in clinical practice and methods to improve the quality of bone density testing. This is a report of the proceedings of the 2014 Santa Fe Bone Symposium.