61 resultados para WCM
Resumo:
Este trabajo de grado tiene como eje central dar cuenta de la estructura y actividades que en materia de responsabilidad social se han venido trabajando desde el Fondo Nacional del Ahorro. Dicho recuento muestra la historia y evolución que ha tenido el área dentro de la entidad y que le permite hoy mostrar resultados favorables y considerables de cara tanto al interior como al exterior de la organización. El trabajo fue realizado con el acompañamiento de funcionarios del grupo de responsabilidad social y se desarrolló alrededor de cuatro ejes centrales; la evolución del área, la plataforma estratégica, la división del trabajo y la coordinación del trabajo. Con el desarrollo del trabajo se evidencio la procuración y el enfoque social y humano en el que están orientados los lineamientos de las estrategias del grupo y la entidad.
Resumo:
Con base en la revisión de la literatura realizada acerca de los roles directivos y del rol de uno en particular que es el CIO, y tomando como referencia la información suministrada por los directivos de tecnologías de Información de las organizaciones Alpina, Banco de Bogotá y Grupo AVAL, el trabajo de investigación hace una descripción del contenido del rol de CIO e identifica las habilidades requeridas para el ejercicio de este rol en dichas organizaciones. Se espera que los resultados del presente estudio generen un valioso aporte como retroalimentación para la academia y las empresas acerca de la formación de los futuros CIO.
Resumo:
La región del Pacífico colombiano se ha identificado de varias maneras, dentro de las cuales el subdesarrollo ha sido la más representativa, para ello, el crecimiento económico se caracterizó como la respuesta, pero con el tiempo las poblaciones afrodescendientes han comenzado a ver grandes ventajas en el desarrollo comunitario para su economía. El presente trabajo de investigación busca exponer las visiones de desarrollo económico ejecutadas por el gobierno y el de las poblaciones afrodescendientes en el bajo Atrato. Planteado a través de un enfoque cualitativo y del análisis de fuentes secundarias, esta investigación se presenta como una posibilidad para la academia, al dar un paso más en el análisis de las visiones económicas de la población afrodescendiente ubicada en el bajo Atrato.
Resumo:
Actualmente, Colombia se encuentra inserta en dinámicas migratorias internacionales, no sólo como país expulsor de estos flujos, sino como destino y país de tránsito; la transformación que ha tenido el panorama migratorio colombiano es reciente y obedece a múltiples factores de carácter interno y externo. El fortalecimiento de la economía colombiana y la coyuntura de la crisis económica española han creado un ambiente propicio para la llegada de una migración laboral altamente calificada proveniente de España. Esta situación no sólo ha configurado al país por primera vez como un destino migratorio, sino ha puesto en evidencia la necesidad de una política migratoria eficaz y capaz de enfrentar los desafíos que impone la nueva realidad migratoria.
Resumo:
TRIPCOLOMBIA es una organización que nace a partir del interés por realizar aportes significativos a los procesos tradicionales de difusión y conservación del patrimonio y la cultura de la nación. De esta manera, se decide realizar un modelo de negocio para implementar una aplicación móvil y un mapa impreso interactivo, que tengan como eje principal estrategias de gamificación , y a mediano plazo el desarrollo y la implementación de Realidad Aumentada (RA) y códigos QR directamente en las zonas de interés cultural. Dicha aplicación, buscará interconectar las TIC con los BIC, espacios competentes o complementarios a los BIC y entidades culturales circundantes, mediante la organización de redes interactivas y retroalimentadas.
Resumo:
Mobile-to-mobile (M-to-M) communications are expected to play a crucial role in future wireless systems and networks. In this paper, we consider M-to-M multiple-input multiple-output (MIMO) maximal ratio combining system and assess its performance in spatially correlated channels. The analysis assumes double-correlated Rayleigh-and-Lognormal fading channels and is performed in terms of average symbol error probability, outage probability, and ergodic capacity. To obtain the receive and transmit spatial correlation functions needed for the performance analysis, we used a three-dimensional (3D) M-to-M MIMO channel model, which takes into account the effects of fast fading and shadowing. The expressions for the considered metrics are derived as a function of the average signal-to-noise ratio per receive antenna in closed-form and are further approximated using the recursive adaptive Simpson quadrature method. Numerical results are provided to show the effects of system parameters, such as distance between antenna elements, maximum elevation angle of scatterers, orientation angle of antenna array in the x–y plane, angle between the x–y plane and the antenna array orientation, and degree of scattering in the x–y plane, on the system performance. Copyright © 2011 John Wiley & Sons, Ltd.
Cross-layer design for MIMO systems over spatially correlated and keyhole Nakagami-m fading channels
Resumo:
Cross-layer design is a generic designation for a set of efficient adaptive transmission schemes, across multiple layers of the protocol stack, that are aimed at enhancing the spectral efficiency and increasing the transmission reliability of wireless communication systems. In this paper, one such cross-layer design scheme that combines physical layer adaptive modulation and coding (AMC) with link layer truncated automatic repeat request (T-ARQ) is proposed for multiple-input multiple-output (MIMO) systems employing orthogonal space--time block coding (OSTBC). The performance of the proposed cross-layer design is evaluated in terms of achievable average spectral efficiency (ASE), average packet loss rate (PLR) and outage probability, for which analytical expressions are derived, considering transmission over two types of MIMO fading channels, namely, spatially correlated Nakagami-m fading channels and keyhole Nakagami-m fading channels. Furthermore, the effects of the maximum number of ARQ retransmissions, numbers of transmit and receive antennas, Nakagami fading parameter and spatial correlation parameters, are studied and discussed based on numerical results and comparisons. Copyright © 2009 John Wiley & Sons, Ltd.
Resumo:
Temporal and spatial acoustic intensity (SATA) of therapeutic ultrasound (US) equipment should be monitored periodically. In order to evaluate the conditions of US equipment in use in the city of Piracicaba-Sao Paulo, Brazil, 31 machines - representing all Brazilian manufacturers - were analysed under continuous and pulsed conditions at a frequency of 1 MHz. Data about temporal and spatial acoustic intensity were collected and the use of equipment was surveyed. Intensities of 0.1, 0.2, 0.5, 0.8, 1.0, 1.5, 2.0, 2.5 and 3.0 Wcm -2, indicated on the equipment panel were analysed using a previously calibrated digital radiation pressure scale, model UPM-DT-1 (Ohmic Instruments Co). The acoustic intensity (I) results were expressed as superior and inferior quartile ranges for transducers with metal surfaces of 9 cm 2 and an effective radiation area (ERA) Of 4 cm 2. The results under continuous conditions were: I 0.1 = -20.0% and -96%. I 0.2 = -3.1% and -83.7%. I 0.5 = -35.0% and -86.5%. I 0.8 = -37.5% and -71.0%. I 2.5 = -49.0% and -69.5%. I 3.0 = -58.1% and -77.6%. For pulsed conditions, intensities were: I 0.1 = -40.0% and -86.2%. I 1.0 = -50.0% and -86.5%. I 1.5 = -62.5% and -82.5%. I 2.0 = -62.5% and -81.6%. I 2.5 = -64.7% and -88.8%. I 3.0 = -87.1% and -94.8%. In reply to the questionnaire drawn up to check the conditions of use of equipment, all users reported the use of hydrosoluble gel as a coupling medium and none had carried out previous calibrations. Most users used intensities in the range of 0.4. to 1.0 Wcm -2 and used machines for 300 to 400 minutes per week. The majority of machines had been bought during the previous seven years and weekly use ranged from less than 100 minutes to 700 minutes (11 hours 40 minutes). Findings confirm previous observations of discrepancy between the intensity indicated on the equipment panel and that emitted by the transducer and highlight the necessity for periodic evaluations of US equipment.
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
L’oggetto di analisi del presente lavoro di tesi è il modello di Operational Excellence noto come World Class Manufacturing in particolare l’approccio allo step 6 del pilastro Professional Maintenance, dove si richiede l’implementazione di un sistema di manutenzione PREDITTIVA, la cosiddetta CBM (Conditional Based Maintenance) . Il modello a cui si fa riferimento fu teorizzato dal professore giapponese H. Yamashina verso la metà degli anni 2000 e giunse in Italia attorno al 2005, quando Fiat Group (oggi FCA) lo adottò come approccio standard alla gestione della produzione. Questo tipo di analisi, orientata verso una prospettiva pratica più che teorica, deriva direttamente da un’esperienza sul campo che ho svolto all’interno di un’azienda che ha aderito al World Class Manufacturing (WCM). Nel capitolo 1 verrà proposto un excursus delle metodologie alla base del WCM e del percorso storico che ha portato alla formulazione del modello. Nel secondo capitolo verrà proposto un caso di applicazione del WCM all'interno di un Gruppo, nella fattispecie Ariston Thermo Group (ATG). Dopo un’overview sul Gruppo e sulla storia della sua adesione al programma di miglioramento, la trattazione si focalizza sull'approccio di ATG al WCM. Nel terzo capitolo verrà introdotta la Manutenzione Professionale secondo le principali politiche manutentive schematizzate dal WCM. Verranno presentate singolarmente per sottolineare i loro obiettivi seguiti dai vantaggi e svantaggi che si possono ottenere nell’implementare ogni singola politica. Nel quarto capitolo verranno specificate sotto un aspetto prettamente pratico le varie attività svolte dalla PM così da evidenziare lo sviluppo e il miglioramento continuo che essa sta ottenendo dall’introduzione del WCM; principalmente la presentazione delle varie attività si riferiscono al passaggio allo step 6 della PM, dove verrà presentata approfonditamente elencando e analizzando tutte le attività svolte per approcciarsi alla CBM.
Resumo:
Miniaturized, self-sufficient bioelectronics powered by unconventional micropower may lead to a new generation of implantable, wireless, minimally invasive medical devices, such as pacemakers, defibrillators, drug-delivering pumps, sensor transmitters, and neurostimulators. Studies have shown that micro-enzymatic biofuel cells (EBFCs) are among the most intuitive candidates for in vivo micropower. In the fisrt part of this thesis, the prototype design of an EBFC chip, having 3D intedigitated microelectrode arrays was proposed to obtain an optimum design of 3D microelectrode arrays for carbon microelectromechanical systems (C-MEMS) based EBFCs. A detailed modeling solving partial differential equations (PDEs) by finite element techniques has been developed on the effect of 1) dimensions of microelectrodes, 2) spatial arrangement of 3D microelectrode arrays, 3) geometry of microelectrode on the EBFC performance based on COMSOL Multiphysics. In the second part of this thesis, in order to investigate the performance of an EBFC, behavior of an EBFC chip performance inside an artery has been studied. COMSOL Multiphysics software has also been applied to analyze mass transport for different orientations of an EBFC chip inside a blood artery. Two orientations: horizontal position (HP) and vertical position (VP) have been analyzed. The third part of this thesis has been focused on experimental work towards high performance EBFC. This work has integrated graphene/enzyme onto three-dimensional (3D) micropillar arrays in order to obtain efficient enzyme immobilization, enhanced enzyme loading and facilitate direct electron transfer. The developed 3D graphene/enzyme network based EBFC generated a maximum power density of 136.3 μWcm-2 at 0.59 V, which is almost 7 times of the maximum power density of the bare 3D carbon micropillar arrays based EBFC. To further improve the EBFC performance, reduced graphene oxide (rGO)/carbon nanotubes (CNTs) has been integrated onto 3D mciropillar arrays to further increase EBFC performance in the fourth part of this thesisThe developed rGO/CNTs based EBFC generated twice the maximum power density of rGO based EBFC. Through a comparison of experimental and theoretical results, the cell performance efficiency is noted to be 67%.
Resumo:
Objective: This essay aims at identifying, describing and analyzing possible changes both in the experience of the body and in interpersonal relations of women with breast cancer, which result from their participation in Dance Therapy group meetings.Method: This is a phenomenologically oriented qualitative research using Maria Fux´s dance therapy method for group experiences. Eight meetings are described here, and an analysis of descriptions based primarily on Merleau-Ponty and María Fux is provided.Results: The participants have been able to express pain and sorrow over the circumstances that breast cancer and its relational environments have brought to their lives. They have been able to go through moments of creation and surrender to the rhythmic body sensations and experiential environment with different emotions lived separately and jointly. They have revived memories and sensations of their childhood and adolescence, and finally, they have rediscovered their sensitive body through body resignifications marked by the absence of the breast, and by means of feelings of greater acceptance and integration of lived experiences in new gestalts.Conclusions: This project is still under way, but it is already possible to conclude that the life experiences provided in dance therapy have allowed these women to improve their integration and welfare. Likewise, they have felt positive changes in the perception of their corporality and in their way of being in the world and with other subjects, thus experiencing the body in a new and different way.
Resumo:
El terrorismo es considerado en la Estrategia Global para la Política Exterior y de Seguridad de la UE como una de las principales amenazas a la seguridad de la Unión Europea. La lucha contra el terrorismo ha dado sus frutos en los últimos quince años, pero este artículo analiza la nueva Estrategia y se pregunta si será suficiente para responder con eficacia a esta amenaza y si se están empleando todos los medios necesarios para atajarla.
Resumo:
El ciberespacio es un escenario de conflicto altamente complejo al estar en constante evolución. Ni la Unión Europea ni ningún otro actor del sistema internacional se encuentra a salvo de las amenazas procedentes del ciberespacio. Pero los pasos dados desde la UE en el mundo de la ciberseguridad no son en absoluto suficientes. Europa necesita que su Estrategia de ciberseguridad sea realmente capaz de integrar a las diferentes Estrategias nacionales. Es urgente una mayor determinación, unos mayores recursos y unos mejores instrumentos que permitan a la Unión implementar una gestión de crisis y una prevención de ciberconflictos verdaderamente eficaz.
Resumo:
El cambio climático es uno de los mayores desafíos de la actualidad. La UE ha abordado el tema de forma claramente insuficiente desde el punto de vista teórico, con unos planteamientos demasiado inmovilistas y hasta conformistas con su propia acción. Pero, al mismo tiempo, ha sido uno de los primeros y principales actores internacionales en actuar y posicionarse claramente en la lucha contra el cambio climático. La Estrategia Global de Seguridad de la UE no aborda adecuadamente ni el cambio climático como prioridad fundamental ni algunas de sus implicaciones en las políticas de los Estados Miembros de la UE.