778 resultados para Galton-Watson Prozesse


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neben der Verbreitung von gefährlichen Krankheiten sind Insekten für enorme agrarwirtschaftliche Schäden verantwortlich. Ein Großteil der Verhaltensweisen bei Insekten wird über den Geruchssinn gesteuert, der somit einen möglichen Angriffspunkt zur Bekämpfung von Schadinsekten darstellt. Hierzu ist es allerdings nötig, die Mechanismen der olfaktorischen Signalübertragung im Detail zu verstehen. Neben den duftstoffbindenden olfaktorischen Rezeptoren spielt hier auch ein konservierter Korezeptor (Orco) eine entscheidende Rolle. Inwieweit bei diesen Proteinen ionotrope bzw. metabotrope Prozesse involviert sind ist bislang nicht vollständig aufgeklärt. Um weitere Einzelheiten aufzuklären wurden daher Einzelsensillenableitungen am Tabakschwärmer Manduca sexta durchgeführt. Orco-Agonisten und Antagonisten wurden eingesetzt, um die Funktion des Korezeptors besser zu verstehen. Bei dem Einsatz des Orco-Agonisten VUAA1 konnte keine Verstärkung der Pheromonantworten bzw. eine Sensitivierung beobachtet werden, wie im Falle einer ionotropen Signalweiterleitung zu erwarten gewesen wäre. Ein ionotroper Signalweg über den OR/Orco-Komplex in M. sexta ist daher unwahrscheinlich. Der Orco-Antagonist OLC15 beeinflusste die gleichen Parameter wie VUAA1 und konnte die von VUAA1 generierte Spontanaktivität blocken. Daher ist es wahrscheinlich, dass dieser einen spezifischen Orco-Blocker darstellt. Sowohl VUAA1 als auch OLC15 hatten großen Effekt auf die langanhaltende Pheromonantwort, welches die Vermutung nahelegt, dass Orco modulierend auf die Sensitivität der Nervenzelle einwirkt. Von OLC15 abweichende Effekte durch die getesteten Amiloride HMA und MIA auf die Pheromonantwort lassen nicht auf eine spezifische Wirkung dieser Agenzien auf Orco schließen und zusätzliche Wirkorte sind anzunehmen. Um die These eines metabotropen Signalwegs zu überprüfen wurde ebenfalls der G-Protein-Blocker GDP-β-S eingesetzt. Alle Parameter der Pheromonantwort die innerhalb der ersten Millisekunden analysiert wurden wiesen eine Reduktion der Sensitivität auf. Im Gegensatz dazu hatte GDP-β-S keinen Effekt auf die langanhaltende Pheromonantwort. Somit scheint ausschließlich die schnelle Pheromonantwort über einen Ligand-bindenden G-Protein-gesteuerten Rezeptor gesteuert zu werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der täglich Wechsel von Hell- und Dunkelphasen führte während der Evolution zur Entwicklung innerer Uhren in nahezu allen Organismen. In der Schabe Rhyparobia maderae lokalisierten Läsions- und Transplantationsexperimente die innere Uhr in der akzessorischen Medulla (AME). Dieses kleine birnenförmige Neuropil am ventromedianen Rand der Medulla ist mit etwa 240 Neuronen assoziiert, die eine hohe Anzahl an zum Teil kolokalisierten Neuropeptiden und Neurotransmittern exprimieren. Diese Signalstoffe scheinen essentiell zu sein für die Synchronisation der inneren Uhr mit der Umwelt, der Kopplung der beiden bilateralen AME, der Aufrechterhaltung des circadianen Rhythmus sowie der zeitlichen Steuerung bestimmter Verhaltensweisen. Während die Funktion einiger dieser neuronalen Botenstoffe bereits gut untersucht ist, fehlt sie für andere. Zudem ist noch ungeklärt, wann einzelne Botenstoffe im circadianen Netzwerk agieren. Im Fokus dieser Studie lag daher die Erforschung der Funktion von SIFamide und Corazonin im circadianen Netzwerk sowie die weitere Untersuchung der Funktionen der Neuropeptide MIP und PDF. Es konnte gezeigt werden, dass SIFamide auch in R. maderae in vier großen neurosekretorischen Zellen in der pars intercerebralis exprimiert wird. Varikosenreiche SIFamide-immureaktive (-ir) Fasern innervieren eine Vielzahl an Neuropilen und finden sich auch in der Hüllregion der AME. Injektionsexperimente resultierten in einer monophasischen Phasen-Antwort-Kurve (PRC) mit einer Verzögerung zur frühen subjektiven Nacht. SIFamide ist also ein Eingangssignal für das circadiane Netzwerk und könnte in der Kontrolle der Schalf/Wach-Homöostase involviert sein. Auch Corazonin fungiert als Eingangssignal. Da die Injektionsexperimente in einer monophasischen PRC mit einem Phasenvorschub zur späten subjektiven Nacht resultierten, ist davon auszugehen, dass die Corazonin-ir AME-Zelle Bestandteil des Morning-Oszillator-Netzwerkes in R. maderae ist. Darüber hinaus zeigten Backfill-Experimente, dass MIP an der Kopplung beider AMAE beteiligt ist. ELISA-Quantifizierungen der PDF-Level im Tagesverlauf ergaben Schwankungen in der Konzentration, die auf eine Ausschüttung des Peptids während des Tages hindeuten – ähnlich wie es in Drosophila melanogaster der Fall ist. Dies spiegelt sich in der vervollständigten bimodalen PDF-PRC wieder. Hier führen Injektionen zu einem Phasenvorschub, bevor maximale Peptidlevel erreicht werden, sowie zu einer Phasenverzögerung, sobald die Peptidlevel wieder zu sinken beginnen. Die PRCs erlauben somit Rückschlüsse auf den Zeitpunkt der maximalen Peptidfreisetzung. PDF-ir Neuriten findet sich zudem in sämtlichen Ganglien des ventralen Strickleiternervensystems, was eine Funktion in der Kontrolle der Prozesse impliziert, die durch die Mustergeneratoren in Thorakal- und Abdominalganglien gesteuert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se incluye: 'Materiales para el aprendizaje del azar', una colección de problemas y juegos que pueden ser de utilidad para motivar el aprendizaje de la incertidumbre. Seleccionado en la convocatoria: Concurso de proyectos de cooperación en materia de investigación entre departamentos universitarios y departamentos de Institutos de Educación Secundaria o equipos de personal docente, Gobierno de Aragón 2008-09

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutor's guide for using the Study Skill's Toolkit learning objects - these are currently available to all 1st year undergraduates in the University via Blackboard. Produced by Julie Watson in elanguages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre los años 2003 y 2004, según datos recolectados por el Instituto Nacional de Cancerología (INC) de Bogotá, hubo un incremento del 13% de los casos de cáncer registrados, siendo el de seno el segundo más frecuente en la población colombiana femenina. La principal prueba de tamizaje utilizada para detectar la aparición de lesiones mamarias malignas es la mamografía, pero su sensibilidad puede variar entre el 68 y el 90% (Diaz, et al., 2005). Algunos estudios han postulado como un candidato a marcador celular para el diagnóstico y seguimiento a la glicoproteína Mamoglobina humana que se expresa de manera específica en la glándula mamaria y se sobre-expresa en la mayoría de los tumores primarios y metastásico de pacientes con cáncer de seno (Fleming, et al., 2000). Desde el año 1996 cuando se identificó la Mamoglobina varios autores han reportado la especificidad de la expresión de esta proteína hacía la glándula mamaria a través de estudios de RT-PCR e inmunohistoquímica analizando muestras de tejido normal y tumoral (Watson, et al, 1996; Watson, et al, 1999; Suchy, et al, 2000; O`Brien, et al, 2002; Zehentner, et al, 2004). La Mamoglobina humana por ser una glicoproteína secretada por las células de la glándula mamaria, sobre-expresada en células tumorales y presente en el suero de mujeres con o sin cáncer, se ha identificado como un posible candidato para marcador tumoral celular sérico (Fanger, et al, 2002; Bernstein, et al., 2005; Zehentner, et al., 2004). Este estudio evaluó la presencia de la proteína Mamoglobina en muestras de suero de pacientes con cáncer de seno, estableció la concentración de esta y la comparó con un grupo control constituido por personas sin ningún tipo de cáncer, mediante el Ensayo Inmunoabsorbente Ligado a Enzima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A complete reference list for tutors of all learning resources in the Study Skills Toolkit (as of Oct. 2008) available through Blackboard VLE

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Fibrosis Quística es la enfermedad autosómica recesiva mas frecuente en caucásicos. En Colombia no se conoce la incidencia de la enfermedad, pero investigaciones del grupo de la Universidad del Rosario indican que podría ser relativamente alta. Objetivo: Determinar la incidencia de afectados por Fibrosis Quística en una muestra de recién nacidos de la ciudad de Bogotá. Metodología: Se analizan 8.297 muestras de sangre de cordón umbilical y se comparan tres protocolos de tamizaje neonatal: TIR/TIR, TIR/DNA y TIR/DNA/TIR. Resultados: El presente trabajo muestra una incidencia de 1 en 8.297 afectados en la muestra analizada. Conclusiones: Dada la relativamente alta incidencia demostrada en Bogotá, se justifica la implementación de Tamizaje Neonatal para Fibrosis Quística en Colombia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivó: Caracterizar los pacientes con heridas cardiacas penetrantes grado II a VI, describir las características del trauma, tratamiento quirúrgico, evolución clínica e identificar los factores asociados a un desenlace. Metodología: Se diseñó un estudio de asociación en 308 pacientes que ingresaron a cirugía con diagnóstico de herida penetrante de corazón entre enero de 1999 y octubre de 2009. Se excluyeron 68 casos. La serie analizada incluyó 240 pacientes con heridas cardiacas. Se analizaron variables demográficas, clínicas, quirúrgicas y de evolución, tabulados en EXCEL® y analizados en SPSS 20®. Resultados: El promedio de edad fue 27.8 años, principalmente hombres (96%), lesiones por arma cortopunzante 93% y un 7% por proyectil arma de fuego. El estado hemodinámico al ingreso (según Ivatury) fue normal 44%; Shock profundo 34%; Agónicos 18% y 3% fatales. El 67% (n=161) presentaron taponamiento cardiaco. Los grados de lesión cardiaca según la clasificación OIS-AAST fueron: grado II 33%, grado III 13%, grado IV 29%, grado V 22% y grado VI 3%. La ventana pericárdica fue el método diagnóstico confirmatorio de lesión en 63% y las incisiones de abordaje quirúrgico fueron la esternotomía 63% y la toracotomía anterolateral 35%. La mortalidad fue 15% (n=36). Las diferencias en mortalidad entre el estado hemodinámico al inicio de cirugía, mecanismo de lesión y grado de herida, demostraron ser estadísticamente significativas (valor de p<0.001). Conclusiones: El estado hemodinámico y las heridas por arma de fuego son factores asociados a mortalidad. La ventana pericárdica subxifoidea favorece la preferencia y buenos resultados de la esternotomía como vía de abordaje quirúrgico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Argentina, uno de los países más visitados de América Latina deja al descubierto su marca país " Argentina Late con vos". Un mecanismo de política exterior con el cual el país ha obtenido grandes beneficios económicos.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La obtención de una ventaja competitiva, el desarrollo, el crecimiento, la perdurabilidad, entre otros, son los aspectos que buscan las organizaciones a través de las estrategias que se definen. Sin embargo, no es suficiente con diseñar las metas y los objetivos que se quieren alcanzar, es necesario aterrizar estos propósitos en planes de acción e involucrar a todos los miembros de la organización, lo cual se consigue a través de la implantación de la estrategia. En este sentido, la etapa de implantación de la estrategia en una organización, da curso al camino establecido en la etapa de formulación de la estrategia, por lo tanto, se relaciona directamente con su éxito o su fracaso. No obstante, este proceso no depende de algunos pocos miembros de la organización, de directivos o de funcionarios, sino que depende de la buena sincronización y armonía de todos aquellos que hacen parte de ella. La presente investigación a través de la revisión teórica y de evidencias empíricas, busca poner de manifiesto la incidencia de dos aspectos clave en la organización sobre la implantación de la estrategia, por un lado, los líderes, a partir de sus competencias interpersonales y por otro el capital humano, a partir de sus valores. Los resultados obtenidos muestran que tanto las competencias del líder como los valores del capital humano son determinantes para la adecuada implantación de la estrategia organizacional.