996 resultados para randomized branch sampling
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
BACKGROUND: Increased intracranial pressure (ICP) worsens the outcome of acute liver failure (ALF). This study investigates the underlying pathophysiological mechanisms and evaluates the therapeutic effect of albumin dialysis in ALF with use of the Molecular Adsorbents Recirculating System without hemofiltration/dialysis (modified, M-MARS). METHODS: Pigs were randomized into three groups: sham, ALF, and ALF + M-MARS. ALF was induced by hepatic devascularization (time = 0). M-MARS began at time = 2 and ended with the experiment at time = 6. ICP, arterial ammonia, brain water, cerebral blood flow (CBF), and plasma inflammatory markers were measured. RESULTS: ICP and arterial ammonia increased significantly over 6 hrs in the ALF group, in comparison with the sham group. M-MARS attenuated (did not normalize) the increased ICP in the ALF group, whereas arterial ammonia was unaltered by M-MARS. Brain water in the frontal cortex (grey matter) and in the subcortical white matter at 6 hrs was significantly higher in the ALF group than in the sham group. M-MARS prevented a rise in water content, but only in white matter. CBF and inflammatory mediators remained unchanged in all groups. CONCLUSION: The initial development of cerebral edema and increased ICP occurs independently of CBF changes in this noninflammatory model of ALF. Factor(s) other than or in addition to hyperammonemia are important, however, and may be more amenable to alteration by albumin dialysis.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Cette étude a été subventionnée par le Fonds de recherche du Québec - Santé (FRQ-S, grant # 21230 – 2)
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Background: An important challenge in conducting social research of specific relevance to harm reduction programs is locating hidden populations of consumers of substances like cannabis who typically report few adverse or unwanted consequences of their use. Much of the deviant, pathologized perception of drug users is historically derived from, and empirically supported, by a research emphasis on gaining ready access to users in drug treatment or in prison populations with higher incidence of problems of dependence and misuse. Because they are less visible, responsible recreational users of illicit drugs have been more difficult to study. Methods: This article investigates Respondent Driven Sampling (RDS) as a method of recruiting experienced marijuana users representative of users in the general population. Based on sampling conducted in a multi-city study (Halifax, Montreal, Toronto, and Vancouver), and compared to samples gathered using other research methods, we assess the strengths and weaknesses of RDS recruitment as a means of gaining access to illicit substance users who experience few harmful consequences of their use. Demographic characteristics of the sample in Toronto are compared with those of users in a recent household survey and a pilot study of Toronto where the latter utilized nonrandom self-selection of respondents. Results: A modified approach to RDS was necessary to attain the target sample size in all four cities (i.e., 40 'users' from each site). The final sample in Toronto was largely similar, however, to marijuana users in a random household survey that was carried out in the same city. Whereas well-educated, married, whites and females in the survey were all somewhat overrepresented, the two samples, overall, were more alike than different with respect to economic status and employment. Furthermore, comparison with a self-selected sample suggests that (even modified) RDS recruitment is a cost-effective way of gathering respondents who are more representative of users in the general population than nonrandom methods of recruitment ordinarily produce. Conclusions: Research on marijuana use, and other forms of drug use hidden in the general population of adults, is important for informing and extending harm reduction beyond its current emphasis on 'at-risk' populations. Expanding harm reduction in a normalizing context, through innovative research on users often overlooked, further challenges assumptions about reducing harm through prohibition of drug use and urges consideration of alternative policies such as decriminalization and legal regulation.
Resumo:
Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.
Resumo:
Chronic catheterization is illustrated using vascular-access-port model SLA where the port is surgically placed subcutaneously on the back of the rat. The catheter is tunnelled to the neck and inserted into the jugular vein . Within 24 h rats showed normal blood pressure and blood samples were collected at intervals with minimal stress to the animals . A comparison of the plasma catecholamine of blood collected from vascular-access-ports with that obtained from decapitation indicates that there was minimal stress to the rats when blood was drawn through the vascular-access-port.
Resumo:
Managers are central to any fuction in a complex and developed society. Their talents are reckoned to be cardinal in developed economies and a basic yearning of all developing economies.In order to survive and produce results in a turbulent and transient environment, the task is to understand the nature of factors contributing to managerial effectiveness. This study is an attempt towards this core issue of the present from a different perspective. This study tries to focus attention on a group of managers functioning in the field of banking, a core sector in the country's economy. The gamut of economic activities in Kerala being predominantly service-oriented, importance of commercial banking is almost indisputable. Though economists would argue that the disproportionate development of service sector is anomalous when viewed against the hazy scenarios in the primary and secondary sectors of the state’s economy, the extent and pace of growth in the banking sector has had its dole meted out by ambitious and productive managers fiinctioning in the field. Researcher’s attempt here is to thresh the grain and chaff among bank managers in terms of their effectiveness and to account for the variations in the light of their ability to affect the thoughts and actions of their subordinates. To put it succinctly, the attempt herein is to explain the effectiveness of bank managers in the light of their ‘Power Profile’ taken to be comprising Power Differentials, Power Bases, their Visibility and Credibility in the organisation and, the Power Styles typically used by them for influencing subordinates.
Resumo:
We present a new method for estimating the expected return of a POMDP from experience. The estimator does not assume any knowle ge of the POMDP and allows the experience to be gathered with an arbitrary set of policies. The return is estimated for any new policy of the POMDP. We motivate the estimator from function-approximation and importance sampling points-of-view and derive its theoretical properties. Although the estimator is biased, it has low variance and the bias is often irrelevant when the estimator is used for pair-wise comparisons.We conclude by extending the estimator to policies with memory and compare its performance in a greedy search algorithm to the REINFORCE algorithm showing an order of magnitude reduction in the number of trials required.
Resumo:
Introducción: El ECG es una herramienta básica en el estudio del dolor torácico, no hay evidencia que demuestre si la interpretación electrocardiográfica de los especialistas de medicina interna y emergencias es similar a la de cardiólogos en casos de SCA. El propósito de este estudio es determinar si existe concordancia en interpretación de los hallazgos electrocardiográficos más frecuentes en la fase aguda de los síndromes coronarios. Metodología: Estudio retrospectivo de concordancia diagnóstica electrocardiográfica, realizado en un hospital universitario de cuarto nivel. Se escogieron los hallazgos electrocardiográficos más frecuentes en síndromes coronarios agudos para ser evaluados por 3 diferentes especialidades y se hizo el análisis de concordancia mediante el cálculo estadístico kappa. Resultados: Se analizaron 200 electrocardiogramas aleatorizados, de pacientes con SCA entre noviembre de 2012 a abril de 2013. La edad promedio fue 65,14 años, la mayoría hombres (62,5%), la hipertensión arterial y enfermedad coronaria fueron las comorbilidades más frecuentes. Se encontró un grado de concordancia moderada (k = 0.61 – 0.80, p <0.001) entre cardiólogos vs emergenciólogos y cardiólogos vs internistas, excepto en lesión subendocárdica (k = 0.11 y 0.24 respectivamente), hubo un grado de concordancia débil (k = 0.41 – 0.60, p <0.001) entre emergenciólogos e internistas. El hallazgo en el que hubo grado de concordancia muy bueno (k > 0.81) fue bloqueo de rama izquierda. Conclusión: Existe grado de concordancia moderada en la lectura electrocardiográfica en la mayoría de variables en relación con síndrome coronario agudo entre los especialistas de medicina interna y emergencias al compararlo con cardiólogos.
Resumo:
Introducción: La bronquiolitis se ha convertido en una patología de alta relevancia clínica y de salud pública, de la cual se han realizado múltiples estudios en cuanto a tratamiento y diagnóstico; Identificar el perfil de los pacientes que presentan esta patología en nuestra población justifica el profundizar en su conocimiento y contexto a nivel local. Metodología: Se realizó un estudio observacional descriptivo de serie de casos. Muestreo consecutivo o secuencial de pacientes con bronquiolitis que cumplieron los criterios de selección, durante el 2011. La información se analizó en SPSS. Se realizó un análisis descriptivo y análisis para determinar la posible asociación entre las variables. Resultados: El total de pacientes en el estudio fue 92. Se encontraron una serie de características comunes, discriminadas en dos grupos, características sociodemográficas de los pacientes y sus padres y características o manifestaciones clínicas de los pacientes, al ingreso, durante y al egreso de su hospitalización. Discusión: Las características sociodemográficas que identifican a los pacientes que presentan bronquiolitis pueden ser determinantes, como pertenecer a población vulnerable, como los pacientes recién nacidos, o lactantes menores; pertenecer a una comunidad en la cual haya presencia de niños en edad escolar. Conclusiones: Los pacientes con riesgo de presentar bronquiolitis, para este estudio, son lactantes menores y recién nacidos; hijos de padres profesionales, y bachilleres, y provenientes de la ciudad de Bogotá. A nivel socio demográfico se encontró que convivir con personas fumadoras y niños en edad escolar no mostró una diferencia en la distribución porcentual de estas variables.
Resumo:
In populational sampling it is vitally important to clarify and discern: first, the design or sampling method used to solve the research problem; second, the sampling size, taking into account different components (precision, reliability, variance); third, random selection and fourth, the precision estimate (sampling errors), so as to determine if it is possible to infer the obtained estimates from the target population. The existing difficulty to use concepts from the sampling theory is to understand them with absolute clarity and, to achieve it, the help from didactic-pedagogical strategies arranged as conceptual “mentefactos” (simple hierarchic diagrams organized from propositions) may prove useful. This paper presents the conceptual definition, through conceptual “mentefactos”, of the most important populational probabilistic sampling concepts, in order to obtain representative samples from populations in health research.
Resumo:
Un clúster es entendido por la gran mayoría como un gran conglomerado de empresas que giran en torno a un objetivo, en su gran mayoría económico. Su intención es competir con otros conglomerados en cuanto a precios y cantidades, ya que de manera individual no podrían. En consecuencia, esta unión se utiliza en un principio para crear ventajas tanto competitivas como comparativas en contra de la competencia, lo cual genera un valor a esta unión, con el fin de producir fidelidad en el cliente y recordación de todos los productos que tal unión brinde. Según estudios realizados por diversos autores, en muchas ocasiones, los clúster no se crean con una finalidad económica, sino como desarrollo de un perfil comunitario que ayude a la sociedad y las organizaciones que la componen. La base de las relaciones se centra en la comunicación y en las diversas técnicas que existen en ese ámbito para asegurar la sostenibilidad de la organización. Dentro de estas relaciones, se le da un reconocimiento a la educación y la cultura en donde se encuentra ubicado el clúster, ya que las estrategias que se implementen se relacionan directamente con las necesidades de los clientes, generando en el pensamiento de la comunidad la perdurabilidad y sostenibilidad como efecto del desarrollo social.