856 resultados para Debt, Imprisonment for--New York (State)--New York--Early works to 1800
Resumo:
With the availability of new generation sequencing technologies, bacterial genome projects have undergone a major boost. Still, chromosome completion needs a costly and time-consuming gap closure, especially when containing highly repetitive elements. However, incomplete genome data may be sufficiently informative to derive the pursued information. For emerging pathogens, i.e. newly identified pathogens, lack of release of genome data during gap closure stage is clearly medically counterproductive. We thus investigated the feasibility of a dirty genome approach, i.e. the release of unfinished genome sequences to develop serological diagnostic tools. We showed that almost the whole genome sequence of the emerging pathogen Parachlamydia acanthamoebae was retrieved even with relatively short reads from Genome Sequencer 20 and Solexa. The bacterial proteome was analyzed to select immunogenic proteins, which were then expressed and used to elaborate the first steps of an ELISA. This work constitutes the proof of principle for a dirty genome approach, i.e. the use of unfinished genome sequences of pathogenic bacteria, coupled with proteomics to rapidly identify new immunogenic proteins useful to develop in the future specific diagnostic tests such as ELISA, immunohistochemistry and direct antigen detection. Although applied here to an emerging pathogen, this combined dirty genome sequencing/proteomic approach may be used for any pathogen for which better diagnostics are needed. These genome sequences may also be very useful to develop DNA based diagnostic tests. All these diagnostic tools will allow further evaluations of the pathogenic potential of this obligate intracellular bacterium.
Resumo:
Since the arrival of several new antivirals and due to the growing molecular and clinical knowledge of hepatitis B virus (HBV) infection, therapy of hepatitis B has become complex. Clinical guidelines aim at streamlining medical attitudes: in this respect, the European Association for the Study of the Liver (EASL) recently issued clinical practice guidelines for the management of chronic hepatitis B. Guidelines made by international experts need however to be adapted to local health care systems. Here, we summarise the EASL guidelines with some minor modifications in order to be compatible with the particular Swiss situation, while discussing in more detail some aspects. Chronic hepatitis B is a complex disease with several phases where host and viral factors interact: the features of this continuous interplay need to be evaluated when choosing the most appropriate treatment. The EASL guidelines recommend, as first-line agents, using the most potent antivirals available with the optimal resistance profile, in order to abate HBV DNA as rapidly and as sustainably as possible. Once therapy has been started, the infection evolves and resistant viral strains may emerge. Rescue therapy needs to be started early with more potent agents lacking cross-resistance.
Resumo:
One of the main objectives of the mid-Atlantic transect is to improve dating resolution of sequences and unconfonnity surfaces. Dinoflagellate cysts from two Ocean Drilling Program boreholes, the onshore Leg 174AX Ocean View Site and Leg 174A continental shelf Site 1071, are used to provide age estimates for sequences and unconfonnities fonned on the New Jersey continental margin during the Miocene epoch. Despite the occasional lack of dinocysts in barren and oxidized sections, dinocyst biochronology still offers greater age control than that provided by other microfossils in marginal marine environments. An early Miocene to late Miocene chronology based on ages detennined for the two study sites is presented. In addition, .palynofacies are used to unravel the systems tract character of the Miocene sequences and provide insight into the effects of taphonomy and preservation of palynomorphs in marginal marine and shelf environments under different ~ea level conditions. More precise placement of maximum flooding surfaces is possible through the identification of condensed sections and palynofacies shifts can also reveal subaerially exposed sections and surfaces not apparent in seismic or lithological analyses. The problems with the application of the pollen record in the interpretation of Miocene climate are also discussed. Palynomorphs provide evidence for a second-order lowering of sea level during the Miocene, onto which higher order sea level fluctuations are super-imposed. Correlation of sequences and unconfonnities is attempted between onshore boreholes and from the onshore Ocean View borehole to offshore Site 1071.
Resumo:
The purpose of this study was to develop a new English assessment system to evaluate Chinese students' English communicative capacities. Since there is more interaction with people from English-speaking countries, Chinese people attach more importance to English oral skills, and a lot of Western English teaching methods were introduced into China to improve students' English communicative capacities. However, traditional paper-written examinations, like the English test of higher education entry examination, cannot evaluate it effectively. This study explored the perceptions of two Chinese English-language teachers and two Chinese students about English assessment system. A qualitative research method using telephone interviews was conducted in this study. The findings showed that the most possible ways to assess Chinese students' English communicative capacities were paper-written examination and person-machine conversations, although measures should be taken to improve these two models. On the other hand, the model of person-person conversation was the ideal assessment tool but was hard to achieve at the current stage.
Resumo:
Envelope addressed to Mr. Welland D. Woodruff from United States Trust Company, New York, postmarked Oct. 7, 1910.
Resumo:
Envelope addressed to Mr. Welland D. Woodruff from Caldwell, Masslich and Reed, Attorneys and Counsellors at Law, New York, postmarked Hudson Terminal Station, New York, Sept. 23, 1913.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Microcredit, a non-profit lending approach that is often championed as a source of women’s inclusion and empowerment, has in the past decade been followed by microfinance, a forprofit sibling of a different temperament. Microfinance in India is now in turmoil, precipitated by legislation in the state of Andhra Pradesh, which has encouraged withholding of payment, which in turn has frozen the market. This paper considers one precipitating condition of the crisis: the remarkable, new, and developing burden of formal economic debt that poor women in the state have only recently come to hold – debt that now surpasses one year’s family income, on average. The development of this lending sector follows upon innovation in lending to the poor of the global north over the past two decades, and the practices show noteworthy parallels. Both lending schemes have produced similar disproportionate burdens upon some low-status individuals within their respective economic orders, and both may exploit a vulnerability that is born of aspiration and produces great dysfunction for borrowers. This paper introduces the two lending schemes, sketches the parallels, and introduces the claim that ethical finance arrangements for the poor require attention to vulnerability, an under-utilized category in both liberal ethical theory and in finance.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
Imprisonment is the most common method of punishment resorted to by almost all legal systems.The new theories of crime causation propounded in the latter half of the nineteenth century gave rise to the feeling that the prisons could be used as appropriate institutions for reforming the offenders. It called for individualisation of punishment.As a result of international movements for humanisation of prisons the judiciary' in tine common law countries started taking active interest in prisoner's treatment.Various studies reveal that much has been done in America to improve the lot of prisoners and to treat them as human beings.The courts there have gone to the extent of saying that there is no iron curtain between a prisoner and the constitution. Most of the rights available to citizens except those which they cannot enjoy due to the conditions of incarceration have also been granted to prisoner.In India also the judiciary has come forward to protect the rights of the prisoners.Maneka Gandhi is a turning point in prisoner's rights.The repeated intervention of courts in prison administration project the view that prisoners have been denied the basic human rights.The High Courts and the Supreme Court of India have been gradually exercising jurisdiction ixl assuming prison justice, including improving the quality of food and amenities, payment of wages and appropriate standards of medical care. Access to courts must be made easier to the aggrieved prisoners.The government should come forward along with some public spirited citizens and voluntary organisations to form a "discharged prisoner“ aid society. The society should exploit opportunities for rehabilitation of prisoners after their release.Most of the prison buildings in the State of Kerala are ill-equipped, ill furnished and without proper ventilation or sanitation and with insufficient water supply arrangements.In India prisoners and prisons today are governed by the old central legislations like Prisons Act l894 Prisoners Act 1900 and the Transfer of Prisoners Act 1950.
Resumo:
The Dirichlet family owes its privileged status within simplex distributions to easyness of interpretation and good mathematical properties. In particular, we recall fundamental properties for the analysis of compositional data such as closure under amalgamation and subcomposition. From a probabilistic point of view, it is characterised (uniquely) by a variety of independence relationships which makes it indisputably the reference model for expressing the non trivial idea of substantial independence for compositions. Indeed, its well known inadequacy as a general model for compositional data stems from such an independence structure together with the poorness of its parametrisation. In this paper a new class of distributions (called Flexible Dirichlet) capable of handling various dependence structures and containing the Dirichlet as a special case is presented. The new model exhibits a considerably richer parametrisation which, for example, allows to model the means and (part of) the variance-covariance matrix separately. Moreover, such a model preserves some good mathematical properties of the Dirichlet, i.e. closure under amalgamation and subcomposition with new parameters simply related to the parent composition parameters. Furthermore, the joint and conditional distributions of subcompositions and relative totals can be expressed as simple mixtures of two Flexible Dirichlet distributions. The basis generating the Flexible Dirichlet, though keeping compositional invariance, shows a dependence structure which allows various forms of partitional dependence to be contemplated by the model (e.g. non-neutrality, subcompositional dependence and subcompositional non-invariance), independence cases being identified by suitable parameter configurations. In particular, within this model substantial independence among subsets of components of the composition naturally occurs when the subsets have a Dirichlet distribution
Resumo:
A medida que pasa el tiempo; la ciencia, el desarrollo tecnológico y la constante búsqueda de encontrar nuevas verdades, más fehacientes y que logren responder más asertivamente los diferentes cuestionamientos de la humanidad, han logrado redefinir las teorías y los axiomas que, en su momento, se tomaron como el dogma a seguir en diferentes disciplinas y cuestionamientos de la sociedad y la industria. La concepción tradicional que se tiene de la mente y el comportamiento del consumidor tenía vacios importantes en términos de aplicabilidad y generalización de sus teorías, pues pensar que la humanidad desarrolla sus decisiones de compra bajo análisis netamente racionales y apegados a estructuras temporales para manejar su dinero es un supuesto que no se emplea de manera general y concienzuda por el común. Antes que agentes 100% racionales, con un completo flujo de información y en un mercado perfecto bajo todos los preceptos económicos, somos personas de sentimientos y sentidos. Reaccionamos ante situaciones, estados de ánimo y estímulos, donde es nuestro cerebro quien recibe todo el contexto cognitivo que nos brinda el entorno y entonces actúa (y compra) de diferentes maneras. Es allí donde el Neuromarketing nace como un claro ejemplo de esa búsqueda por una nueva verdad. Una donde entender al consumidor no deje de lado su faceta más real; sus reacciones, pues son estas las que realmente definen qué le gusta o no y qué despierta en él un impulso lo suficientemente importante como para incidir en su decisión de compra. Es por ello que el Neuromarketing se ha adentrado a estudiar lo más profundo y verídico del consumidor, su cerebro. Alejándose de las técnicas tradicionales de investigación de mercados, donde el consumidor puede desvirtuar la información que percibe de un producto o una campaña publicitaría por diferentes razones sociales y psicológicas. El Neuromarketing se ha adentrado al estudio del consumidor y su cerebro mediante técnicas biométricas, en las cuales expone al consumidor al marketing y analiza sus reacciones cerebrales en términos de interés, adrenalina, memoria activa y sentimientos, apoyado por técnicas como el ¨eye tracking¨, donde las interacciones visuales del consumidor permiten identificar los puntos calientes y de interés en determinada pieza publicitaria. Pero el estudio, entendido por algunos como ¨invasivo¨ frente a las libertades en términos de privacidad y libertad de elección del consumidor deben ser responsablemente dirigidos y puestos bajo un contexto científico, donde el único fin sea el de generar nuevas hipótesis y teorías que permitan tener un mejor conocimiento del comportamiento del consumidor sin traspasar los límites del control del mismo. El Neuromarketing debate su existencia misma entre la creación de nuevas metodologías de acercamiento al pensamiento del consumidor, la efectividad de sus conocimiento dados a la industria y el yugo social que acarrea esta ciencia debido a la potencial coerción a los consumidores debido a sus hallazgos.
Resumo:
Aunque el concepto de sabiduría ha sido ampliamente estudiado por expertos de áreas como la filosofía, la religión y la psicología, aún enfrenta limitaciones en cuanto a su definición y evaluación. Por esto, el presente trabajo tiene como objetivo, formular una definición del concepto de sabiduría que permita realizar una propuesta de evaluación del concepto como competencia en los gerentes. Para esto, se realizó un análisis documental de tipo cualitativo. De esta manera, se analizaron diversos textos sobre la historia, las definiciones y las metodologías para evaluar tanto la sabiduría como las competencias; diferenciando la sabiduría de otros constructos y analizando la diferencia entre las competencias generales y las gerenciales para posteriormente, definir la sabiduría como una competencia gerencial. Como resultado de este análisis se generó un prototipo de prueba denominado SAPIENS-O, a través del cuál se busca evaluar la sabiduría como competencia gerencial. Como alcances del instrumento se pueden identificar la posibilidad de medir la sabiduría como competencia en los gerentes, la posibilidad de dar un nuevo panorama a las dificultades teóricas y empíricas sobre la sabiduría y la posibilidad de facilitar el estudio de la sabiduría en ambientes reales, más específicamente en ambientes organizacionales.
Resumo:
El proyecto de investigación que se trabaja centra su atención en la siguiente cuestión: determinar un instrumento de recolección que permita identificar cuáles son las competencias que caracterizan a los emprendedores bogotanos creadores de empresas de rápido crecimiento. La presente es una investigación cualitativa que busca la mejor manera de preparar a los futuros emprendedores desde la educación superior. Si se conocen las competencias que acompañan al emprendedor se puede comprender mejor su capacidad de crear empresa y así buscar una mejor manera de preparar a los futuros emprendedores. Esto es importante para la economía de un país en general, máxime cuando se dan situaciones de depresión económica como el desempleo que se vive en la actualidad. “La creación y el desarrollo de nuevas empresas contribuye decisivamente a lograr el deseado bienestar para la sociedad, dado que permite incrementar el nivel de empleo, impulsar la innovación y mejorar la competitividad” (Acs, Audretch, & Braunerhjelm, 2006, pág. 83). La investigación abarca la búsqueda de competencias a nivel mundial basándose en estudios realizados por diferentes autores (Alles, Durán, Goleman, Shipmann, Varela, Boyatsis, Mc. Clelland y Blancero). El objetivo es desarrollar un instrumento que permita recolectar información de emprendedores bogotanos exitosos, con base en la clasificación de competencias que se realice a lo largo de la investigación.
Resumo:
En este proyecto se realizará una investigación del método analítico, en donde se utilizará una herramienta descrita en el libro “Análisis estructural de sectores estratégicos” (Restrepo & Rivera, 2008) que permitirá comparar los sectores de la construcción y las variables de mercado, para poder plantear una estrategia adecuada que le permita a la empresa Redes y Proyectos de Energía S.A. ser competitiva y cumplir con las necesidades y expectativas de sus clientes. Por este motivo se ve la necesidad de proponer una estrategia de crecimiento para que Redes y Proyectos de Energía S.A., pueda orientarse estratégicamente y pueda llegar a ser una empresa corporativa sostenible y fuertemente posicionada en el sector de las instalaciones eléctricas de media y baja tensión, telecomunicaciones y automatización, puesto que el mismo, ha evolucionado y crecido de una manera acelerada, por lo cual se considera necesario incursionar en nuevos campos y estrategias para mantener su crecimiento y que pueda ser perdurable. Los estudios que van a permitir proponer estas tácticas se soportan en un análisis de aplicación de pruebas económicas como son: Análisis de Hacinamiento, Levantamiento de Panorama Competitivo, Análisis estructural de la Fuerzas del Mercado y Estudio de Competidores, (Restrepo & Rivera, 2006, pág. 29) en donde con un análisis estructural de sectores, se investigarán las necesidades del sector, exigencias de los clientes y se examinará que estará pasando con los competidores, para que se pueda precisar el modelo de negocio que la empresa debe seguir y plantear alternativas que generen un escenario futuro exitoso.