923 resultados para patient-specific spine model


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Current high temperature superconducting (HTS) wires exhibit high current densities enabling their use in electrical rotating machinery. The possibility of designing high power density superconducting motors operating at reasonable temperatures allows for new applications in mobile systems in which size and weight represent key design parameters. Thus, all-electric aircrafts represent a promising application for HTS motors. The design of such a complex system as an aircraft consists of a multi-variable optimization that requires computer models and advanced design procedures. This paper presents a specific sizing model of superconducting propulsion motors to be used in aircraft design. The model also takes into account the cooling system. The requirements for this application are presented in terms of power and dynamics as well as a load profile corresponding to a typical mission. We discuss the design implications of using a superconducting motor on an aircraft as well as the integration of the electrical propulsion in the aircraft, and the scaling laws derived from physics-based modeling of HTS motors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Advances in surgical procedure, prosthesis design, and biomaterials performance have considerably increased the longevity of total joint replacements. Preoperative planning is another step in joint replacement that may have the potential to improve clinical outcome for the individual patient, but has remained relatively consistent for a longtime. One means of advancing this aspect of joint replacement surgery may be to include predictive computer simulation into the planning process. In this article, the potential of patient-specific finite element analysis in preoperative assessment is investigated. Seventeen patient-specific finite element models of cemented Charnley reconstructions were created, of which six were early (

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIVE: Despite recent increases in the volume of research in professional rugby union, there is little consensus on the epidemiology of injury in adolescent players. We undertook a systematic review to determine the incidence, severity, and nature of injury in adolescent rugby union players.

DATA SOURCES: In April 2009, we performed a computerized literature search on PubMed, Embase, and Cochrane Controlled Trials Register (via Ovid). Population-specific and patient-specific search terms were combined in the form of MEDLINE subject headings and key words (wound$ and injur$, rugby, adolescent$). These were supplemented with related-citation searches on PubMed and bibliographic tracking of primary and review articles.

STUDY SELECTION: Prospective epidemiologic studies in adolescent rugby union players.

DATA SYNTHESIS: A total of 15 studies were included, and the data were analyzed descriptively. Two independent reviewers extracted key study characteristics regarding the incidence, severity, and nature of injuries and the methodologic design.

CONCLUSIONS: Wide variations existed in the injury definitions and data collection procedures. The incidence of injury necessitating medical attention varied with the definition, from 27.5 to 129.8 injuries per 1000 match hours. The incidence of time-loss injury (>7 days) ranged from 0.96 to 1.6 per 1000 playing hours and from 11.4/1000 match hours (>1 day) to 12-22/1000 match hours (missed games). The highest incidence of concussion was 3.3/1000 playing hours. No catastrophic injuries were reported. The head and neck, upper limb, and lower limb were all common sites of injury, and trends were noted toward greater time loss due to upper limb fractures or dislocations and knee ligament injuries. Increasing age, the early part of the playing season, and the tackle situation were most closely associated with injury. Future injury-surveillance studies in rugby union must follow consensus guidelines to facilitate interstudy comparisons and provide further clarification as to where injury-prevention strategies should be focused.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Purpose: In this study the Octavius detector 729 ionization chamber (IC) array with the Octavius 4D phantom was characterized for flattening filter (FF) and flattening filter free (FFF) static and rotational beams. The device was assessed for verification with FF and FFF RapidArc treatment plans.

Methods: The response of the detectors to field size, dose linearity, and dose rate were assessed for 6 MV FF beams and also 6 and 10 MV FFF beams. Dosimetric and mechanical accuracy of the detector array within the Octavius 4D rotational phantom was evaluated against measurements made using semiflex and pinpoint ionization chambers, and radiochromic film. Verification FF and FFF RapidArc plans were assessed using a gamma function with 3%/3 mm tolerances and 2%/2 mm tolerances and further analysis of these plans was undertaken using film and a second detector array with higher spatial resolution.

Results: A warm-up dose of >6 Gy was required for detector stability. Dose-rate measurements were stable across a range from 0.26 to 15 Gy/min and dose response was linear, although the device overestimated small doses compared with pinpoint ionization chamber measurements. Output factors agreed with ionization chamber measurements to within 0.6% for square fields of side between 3 and 25 cm and within 1.2% for 2 x 2 cm(2) fields. The Octavius 4D phantom was found to be consistent with measurements made with radiochromic film, where the gantry angle was found to be within 0.4. of that expected during rotational deliveries. RapidArc FF and FFF beams were found to have an accuracy of >97.9% and >90% of pixels passing 3%/3 mm and 2%/2 mm, respectively. Detector spatial resolution was observed to be a factor in determining the accurate delivery of each plan, particularly at steep dose gradients. This was confirmed using data from a second detector array with higher spatial resolution and with radiochromic film.

Conclusions: The Octavius 4D phantom with associated Octavius detector 729 ionization chamber array is a dosimetrically and mechanically stable device for pretreatment verification of FF and FFF RapidArc treatments. Further improvements may be possible through use of a detector array with higher spatial resolution (detector size and/or detector spacing). (C) 2013 American Association of Physicists in Medicine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work investigated the differences between multileaf collimator (MLC) positioning accuracy determined using either log files or electronic portal imaging devices (EPID) and then assessed the possibility of reducing patient specific quality control (QC) via phantom-less methodologies. In-house software was developed, and validated, to track MLC positional accuracy with the rotational and static gantry picket fence tests using an integrated electronic portal image. This software was used to monitor MLC daily performance over a 1 year period for two Varian TrueBeam linear accelerators, with the results directly compared with MLC positions determined using leaf trajectory log files. This software was validated by introducing known shifts and collimator errors. Skewness of the MLCs was found to be 0.03 ± 0.06° (mean ±1 standard deviation (SD)) and was dependent on whether the collimator was rotated manually or automatically. Trajectory log files, analysed using in-house software, showed average MLC positioning errors with a magnitude of 0.004 ± 0.003 mm (rotational) and 0.004 ± 0.011 mm (static) across two TrueBeam units over 1 year (mean ±1 SD). These ranges, as indicated by the SD, were lower than the related average MLC positioning errors of 0.000 ± 0.025 mm (rotational) and 0.000 ± 0.039 mm (static) that were obtained using the in-house EPID based software. The range of EPID measured MLC positional errors was larger due to the inherent uncertainties of the procedure. Over the duration of the study, multiple MLC positional errors were detected using the EPID based software but these same errors were not detected using the trajectory log files. This work shows the importance of increasing linac specific QC when phantom-less methodologies, such as the use of log files, are used to reduce patient specific QC. Tolerances of 0.25 mm have been created for the MLC positional errors using the EPID-based automated picket fence test. The software allows diagnosis of any specific leaf that needs repair and gives an indication as to the course of action that is required.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Castrate-resistant prostate cancer (CRPC) is poorly characterized and heterogeneous and while the androgen receptor (AR) is of singular importance, other factors such as c-Myc and the E2F family also play a role in later stage disease. HES6 is a transcription co-factor associated with stem cell characteristics in neural tissue. Here we show that HES6 is up-regulated in aggressive human prostate cancer and drives castration-resistant tumour growth in the absence of ligand binding by enhancing the transcriptional activity of the AR, which is preferentially directed to a regulatory network enriched for transcription factors such as E2F1. In the clinical setting, we have uncovered a HES6-associated signature that predicts poor outcome in prostate cancer, which can be pharmacologically targeted by inhibition of PLK1 with restoration of sensitivity to castration. We have therefore shown for the first time the critical role of HES6 in the development of CRPC and identified its potential in patient-specific therapeutic strategies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Strong and sometimes extreme responses in runoff and soil erosion following wildfires have been reported worldwide. However, in the case of North-Central Portugal, little research had been carried out regarding the hydrologic and erosive impacts of several land management activities in recently burnt areas (such as ground preparation, post-fire logging or post-fire mitigation treatments). This study aims to assess post-fire runoff and soil erosion response on Eucalypt and Maritime pine plantations during the first, second and third years following wildfires. The effect of several pre-fire ground preparation operations (ploughed down-slope, contour ploughed and inclined terraces), post-fire logging activities (on both the eucalypt and pine plantations), as well as the application of hydromulch (a post-fire emergency treatment) on overland flow and soil erosion were compared to burnt but undisturbed and untreated areas. The intensive monitoring of runoff, soil erosion and selected soil properties served to determine the main factors involved in post-fire runoff and soil erosion and their spatial and temporal variation. Soil water repellency deserved special attention, due to its supposed important role for overland flow generation. Repeated rainfall simulation experiments (RSE’s), micro-scale runoff plots and bounded sediment fences were carried out and/or installed immediately after the wildfire on seven burnt slopes. Micro-scale runoff plots results under natural rainfall conditions were also compared to the RSE’s results, which was useful for assessing the representativeness of the data obtained with artificial rainfall. The results showed comparable runoff coefficient (20-60%) but lower sediment losses (125-1000 g m-2) than prior studies in Portugal, but especially outside Portugal. Lower sediment losses were related with the historic intensive land use in the area. In evaluating these losses, however, the shallowness and stoniness of the soils, as well as the high organic matter fraction of the eroded sediments (50%) must not be overlooked. Sediment limited erosion was measured in all the ploughed sites, probably due to the time since ploughing (several years). The disturbance of the soil surface cover due to post-fire logging and wood extraction substantially increased sediment losses at both the pine and eucalypt sites. Hydromulch effectiveness in reducing the runoff (70%) and sediment losses (83%) was attributed to the protective high coverage provided by hydromulch. The hydromulch significantly affected the soil cover and other soil properties and these changes also reduced the soil erosion risk. The rainfall amount was the main factor explaining the variance in runoff. However, a shift from rainfall amount to rainfall intensity was detected when either the surface cover or the infiltration capacity (hydrophilic conditions) increased. Sediment losses were controlled by rainfall intensity and surface cover. The role of soil water repellency on runoff generation was not consistent; the overall repellency levels alone were not enough to assess its hydrological impact. Soil water repellency explained runoff generation in the specific-sites model better than in the overall model. Additionally, soil moisture content was a better predictor for soil water repellency than antecedent rainfall. The natural rainfall results confirmed that RSE’s were able to capture the specific sediment losses and its organic matter content as well as the differences between the ploughed and unploughed sites. Repeated RSE’s also captured the seasonal variations in runoff and sediment losses attributed to soil water repellency. These results have implications for post-fire soil erosion modelling and soil conservation practices in the region, or areas with the same land use, climate and soil characteristics. The measured sediment loss, as well as the increasing frequency of ploughing in recently burnt and unburnt eucalypt stands, suggests ploughing is not an effective as a soil conservation measure. Logging activities with less impact are recommended in order to maintain the forest litter protecting the soil surface. Due to its high effectiveness in reducing runoff and soil erosion, hydromulch is recommended for highly sensitive and vulnerable areas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analyzing the type and frequency of patient-specific mutations that give rise to Duchenne muscular dystrophy (DMD) is an invaluable tool for diagnostics, basic scientific research, trial planning, and improved clinical care. Locus-specific databases allow for the collection, organization, storage, and analysis of genetic variants of disease. Here, we describe the development and analysis of the TREAT-NMD DMD Global database (http://umd.be/TREAT_DMD/). We analyzed genetic data for 7,149 DMD mutations held within the database. A total of 5,682 large mutations were observed (80% of total mutations), of which 4,894 (86%) were deletions (1 exon or larger) and 784 (14%) were duplications (1 exon or larger). There were 1,445 small mutations (smaller than 1 exon, 20% of all mutations), of which 358 (25%) were small deletions and 132 (9%) small insertions and 199 (14%) affected the splice sites. Point mutations totalled 756 (52% of small mutations) with 726 (50%) nonsense mutations and 30 (2%) missense mutations. Finally, 22 (0.3%) mid-intronic mutations were observed. In addition, mutations were identified within the database that would potentially benefit from novel genetic therapies for DMD including stop codon read-through therapies (10% of total mutations) and exon skipping therapy (80% of deletions and 55% of total mutations).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Immunotherapy is emerging as a promising anti-cancer curative modality. However, in contrast to recent advances obtained employing checkpoint blockade agents and T cell therapies, clinical efficacy of therapeutic cancer vaccines is still limited. Most vaccination attempts in the clinic represent "off-the shelf" approaches since they target common "self" tumor antigens, shared among different patients. In contrast, personalized approaches of vaccination are tailor-made for each patient and in spite being laborious, hold great potential. Recent technical advancement enabled the first steps in the clinic of personalized vaccines that target patient-specific mutated neo-antigens. Such vaccines could induce enhanced tumor-specific immune response since neo-antigens are mutation-derived antigens that can be recognized by high affinity T cells, not limited by central tolerance. Alternatively, the use of personalized vaccines based on whole autologous tumor cells, overcome the need for the identification of specific tumor antigens. Whole autologous tumor cells could be administered alone, pulsed on dendritic cells as lysate, DNA, RNA or delivered to dendritic cells in-vivo through encapsulation in nanoparticle vehicles. Such vaccines may provide a source for the full repertoire of the patient-specific tumor antigens, including its private neo-antigens. Furthermore, combining next-generation personalized vaccination with other immunotherapy modalities might be the key for achieving significant therapeutic outcome.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Jusqu’à une époque récente, un juriste étudiait un modèle juridique donné car il le considérait comme le meilleur. Telle est la constatation formulée par les comparatistes Antonio Gambaro, Rodolfo Sacco et Louis Vogel dans les premières lignes de leur Droit de l’Occident et d’ailleurs. Cette attitude cadre difficilement avec le contexte globalisant actuel. En revanche, un nombre croissant de juristes manifestent un intérêt renouvelé à l’égard du génie propre aux différentes traditions juridiques. À l’intérieur même d’une tradition juridique, un recul théorique est parfois nécessaire afin de mieux en apprécier la sagesse. Pour H. Patrick Glenn, la tradition juridique est vivante et évolutive. Le droit civil privé du Québec, branche de la tradition romaniste, constitue la résultante d’un processus de transmission de connaissances juridiques dont la pertinence est constamment mise à l’épreuve du temps et du contexte social. Très tôt, les dépositaires du savoir issu de la tradition romaniste ont cherché à définir la place de l’être humain dans la nature et cela, à toute époque confondue. La relation humaine avec la terre a fait l’objet de réflexions juridiques poussées dans le droit classique comme dans le droit moderne. Le droit des biens privé du Québec, branche fondamentale du droit civil, a intériorisé et adapté la somme de ce savoir à son propre contexte social et historique. La conception juridique de la terre a varié considérablement à l’intérieur même de la tradition romaniste. Ce mémoire propose une étude des représentations sociales et historiques de la terre dans la tradition romaniste. Cette étude a été menée en recourant à une approche interdisciplinaire du droit qui puise dans le savoir des disciplines philosophiques et historiques. Au terme de cette analyse, il sera établi que la structure de la propriété civiliste a conduit à une fragmentation juridique de la terre en autant d’utilités qu’il est techniquement possible pour l’être humain d’en tirer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Grupo Bimbo es uno de los mayores fabricantes a nivel mundial de panadería y dulces, es considerada como la segunda empresa panificadora más importante del mundo, estando presente en más de 17 países, en los cuales cuenta con gran participación y posicionamiento de sus productos. Esto ha contribuido a que se convierta en la empresa líder de la industria panadera en Latinoamérica, siendo así, un modelo a seguir para otras compañías que quieren seguir sus pasos. Por esta razón, fue preciso hacer un estudio de sus operaciones y actividades tanto internas como externas, con el objetivo de analizar y comprender la clave de su rotundo éxito. Por otro lado, después de realizar un recorrido teórico por los planteamientos de cada uno de los modelos de internacionalización, formulados por diferentes teóricos y una investigación profunda del proceso de internacionalización que ha desarrollado Grupo Bimbo a través de sus 65 años de presencia en el mercado, se logró comparar la teoría de éstos modelos con las prácticas y metodologías que ha implementado ésta compañía en su proceso de expansión a mercados extranjeros, llegando a conclusiones tales como que esta compañía, no se basó en un modelo teórico especifico para su proceso de internacionalización, sino en una combinación de experiencia, conocimiento, investigación de mercados y de diferentes mecanismos de ingreso a nuevos mercados, para entrar con gran éxito a los distintos países en los cuales sus productos se están comercializando.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo de investigación busca analizar la importancia de la participación ciudadana en los procesos de transformación física de la ciudad. El trabajo parte de la revisión del proceso llamado Urbanismo Social, un modelo de gestión específico de la administración, que enmarcó el desarrollo de los Proyectos Urbanos Integrales PUI en Medellín, Colombia, entre 2004 y 2007. Se analiza la Metodología participativa dentro del Proyecto Urbano Integral Nororiental, la cual promovió el uso de diferentes mecanismos que facilitaron la participación ciudadana. Se identifican factores de éxito y factores críticos dentro de la Metodología, con el propósito de contribuir a la discusión y construcción de estrategias de participación más efectivas y eficientes para los proyectos de ciudad.