962 resultados para Activité en ondes lentes
Resumo:
La mise à jour des connaissances par les infirmières et leur engagement dans un processus continu d’apprentissage est garant de soins de qualité à la population (Nesbitt, 2013; OIIQ, 2011b; Raelin, 2008; Wilson et al., 2015). Au Québec depuis 2012, les infirmières doivent être inscrites à un minimum de 20 heures de formation annuellement (OIIQ, 2011a). Les milieux de soins offrent de la formation souvent ponctuelle. Garcia, Meek, et Wilson (2011) soulignent que l’implantation d’activités pérennes de développement professionnel en milieu de travail demeure un défi. La présente étude avait pour but de documenter les caractéristiques, le contexte et les processus d’implantation et de pérennisation d’une activité de développement professionnel par une équipe d’infirmières. Il s’agissait d’un club de lecture dans un centre hospitalier universitaire (CHU) d’une grande métropole québécoise. Fondée sur le modèle de Pettigrew et Whipp (1991) Content, Context, and Process model of strategic change adapté par Stetler, Ritchie, Rycroft-Malone, Schultz, et Charns (2007), la méthode d’étude de cas a été choisie. Des entrevues individuelles (n=7), des focus groups (n=2) et des périodes d’observation (n=2) ont été réalisés afin de décrire les éléments de succès de l’implantation et de la pérennisation de cette activité. Il résulte comme caractéristique qu’une activité où les infirmières sont engagées et actives est une stratégie gagnante. Le contexte, une équipe de gestionnaires qui valorise la pratique clinique et la pratique fondée sur les résultats probants, soutient la pérennité. Une trajectoire avec des retombées concrètes pour la pratique, les soins aux patients et l’identité professionnelle des participantes est l’élément principal du processus qui contribue à ce que l’activité soit pérenne.
Resumo:
Cette recherche, réalisée en milieu scolaire québécois, concerne l’enseignement et l’apprentissage de la géométrie à l’entrée au secondaire. Ce contexte est caractérisé par une géométrie non clairement définie d’un point de vue épistémologique, tant dans le programme d’études du premier cycle que dans les manuels scolaires. Ainsi, nous avons cherché à voir d’une part, l’activité géométrique souhaitée et actualisée par des enseignants incluant les problèmes proposés et, d’autre part, les conceptions d’élèves développées par ces problèmes. À partir de données recueillies auprès de quatre classes, nous avons déterminé cette activité géométrique et répertorié six types de problèmes dont quatre sont dominants ainsi que des conceptions d’élèves. L’activité géométrique en classe a donné lieu à des moments d’hésitation épistémologique, lesquels ne sont pas sans effet dans le développement des conceptions des élèves.
Resumo:
La voie de signalisation Notch est conservée au cours de l'évolution. Elle joue un rôle clé dans le développement, et elle est impliquée dans de nombreuses décisions de destin cellulaire, dans le maintien des cellules souches, et dans le contrôle de la prolifération et de la différenciation cellulaires. Une dérégulation de la signalisation Notch est impliquée dans diverses maladies et cancers, y compris les tumeurs solides, comme les cancers du sein et du col de l'utérus, et les leucémies, comme la Leucémie Aiguë Lymphoblastique des cellules T (LAL-T). Notch est un récepteur transmembranaire activé par des ligands transmembranaires de la famille DSL (Delta/Serrate/Lag-2). Bien que plusieurs mutations oncogéniques ont été identifiées au niveau du récepteur Notch, de nombreux cancers modulés par Notch demeurent ligand-dépendants. Étonnamment, les mécanismes moléculaires régulant l'activation du ligand sont encore relativement peu caractérisés par rapport à ceux qui régissent le récepteur Notch lui-même. Utilisant un essai de co-culture avec un rapporteur luciférase de Notch, nous avons effectué le premier crible d'ARNi pan-génomique visant spécifiquement à identifier des régulateurs des ligands de Notch dans la cellule émettrice du signal. Nous avons ainsi pu découvrir de nouvelles classes de régulateurs communs pour les ligands Delta-like1 et 4. Ces régulateurs comprennent des inhibiteurs de protéases, des facteurs de transcription, et des gènes divers à fonction inconnue, tels que Tmem128 « Transmembrane protein 128 », ou à fonction préalablement caractérisée tels que la co-chaperonne moléculaire Cdc37 « Cell division cycle 37 homolog ». Par la suite, nous avons développé des cribles secondaires fonctionnels où nous avons démontré l'importance de ces régulateurs pour des événements Notch-dépendants, comme la différenciation des cellules T normales, et la survie des cellules souches pré-leucémiques isolées à partir d'un modèle murin de LAL-T. En outre, nous avons prouvé que les régulateurs les plus forts du crible de survie sont également nécessaires pour l'activité d'auto-renouvellement des cellules souches pré-leucémiques. Finalement, nous avons entamé une caractérisation moléculaire préliminaire de deux régulateurs nouvellement identifiés; Tmem128 et Cdc37 afin d'étudier leur mécanisme d'action sur les ligands. En conclusion, cette étude nous a permis d'identifier de nouveaux régulateurs de la voie Notch qui pourraient servir de cibles thérapeutiques potentielles dans les cancers; tel qu'illustré par le modèle LAL-T. La compréhension des détails moléculaires sous-jacents aux fonctions de ces régulateurs sera essentielle afin de développer des inhibiteurs pharmacologiques pour bloquer leur action et entraver la signalisation Notch dans le cancer.
Resumo:
Les azasulfurylpeptides sont des mimes peptidiques auxquels le carbone en position alpha et le carbonyle d’un acide aminé sont respectivement remplacés par un atome d’azote et un groupement sulfonyle (SO2). Le but premier de ce projet a été de développer une nouvelle méthode de synthèse de ces motifs, également appelés N-aminosulfamides. À cette fin, l’utilisation de sulfamidates de 4-nitrophénol s’est avérée importante dans la synthèse des azasulfuryltripeptides, permettant le couplage d’hydrazides avec l’aide d’irradiation aux micro-ondes (Chapitre 2). Par la suite, en quantité stoechiométrique d’une base et d’un halogénure d’alkyle, les azasulfurylglycines (AsG) formés peuvent être chimiosélectivement alkylés afin d’y insérer diverses chaînes latérales. Les propriétés conformationnelles des N-aminosulfamides à l’état solide ont été élucidées grâce à des études cristallographiques par rayons X : elles possèdent une structure tétraédrique autour de l’atome de soufre, des traits caractéristiques des azapeptides et des sulfonamides, ainsi que du potentiel à favoriser la formation de tours gamma (Chapitre 3). Après le développement d’une méthode de synthèse des N-aminosulfamides en solution, une approche combinatoire sur support solide a également été élaborée sur la résine amide de Rink afin de faciliter la génération d’une librairie d’azasulfurylpeptides. Cette étude a été réalisée en employant le growth hormone releasing peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). Ce dernier est un hexapeptide possédant une affinité pour deux récepteurs, le growth hormone secretagogue receptor 1a (GHS-R1a) et le récepteur cluster of differenciation 36 (CD36). Une affinité sélective envers le récepteur CD36 confère des propriétés thérapeutiques dans le traitement de la dégénérescence maculaire liée à l’âge (DMLA). Six analogues d’azasulfurylpeptides de GHRP-6 utilisés comme ligands du CD36 ont été synthétisés sur support solide, mettant en évidence le remplacement du tryptophane à la position 4 de GHRP-6 (Chapitre 4). Les analogues de GHRP-6 ont été ensuite analysés pour leur capacité à moduler les effets de la fonction et de la cascade de signalisation des ligands spécifiques au Toll-like receptor 2 (TLR2), en collaboration avec le Professeur Huy Ong du département de Pharmacologie à la Faculté de Pharmacie de l’Université de Montréal. Le complexe TLR2-TLR6 est reconnu pour être co-exprimé et modulé par CD36. En se liant au CD36, certains ligands de GHRP-6 ont eu un effet sur la signalisation du TLR2. Par exemple, les azasulfurylpeptides [AsF(4-F)4]- et [AsF(4-MeO)4]-GHRP-6 ont démontré une capacité à empêcher la surproduction du monoxyde d’azote (NO), un sous-produit réactif formé suite à l’induction d’un signal dans les macrophages par des ligands spécifiques liés au TLR2, tel le fibroblast-stimulating lipopeptide 1 (R-FSL-1) et l’acide lipotéichoïque (LTA). En addition, la sécrétion du tumor necrosis factor alpha (TNFa) et du monocyte chemoattractant protein 1 (MCP-1), ainsi que l’activation du nuclear factor kappa-light-chain-enhancer of activated B cells (NF-kB), ont été réduites. Ces résultats démontrent le potentiel de ces azasulfurylpeptides à pouvoir réguler le rôle du TLR2 qui déclenche des réponses inflammatoires et immunitaires innées (Perspectives). Finalement, le potentiel des azasulfurylpeptides d’inhiber des métallo-bêta-lactamases, tels le New-Delhi Metallo-bêta-lactamase 1 (NDM-1), IMP-1 et le Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), a été étudié en collaboration avec le Professeur James Spencer de l’Université de Bristol (Royaumes-Unis). Certains analogues ont été des inhibiteurs micromolaires du IMP-1 (Perspectives). Ces nouvelles voies de synthèse des azasulfurylpeptides en solution et sur support solide devraient donc permettre leur utilisation dans des études de relations structure-activité avec différents peptides biologiquement actifs. En plus d'expandre l'application des azasulfurylpeptides comme inhibiteurs d'enzymes, cette thèse a révélé le potentiel de ces N-aminosulfamides à mimer les structures secondaires peptidiques, tels que les tours gamma. À cet égard, l’application des azasulfurylpeptides a été démontrée par la synthèse de ligands du CD36 présentant des effets modulateurs sur le TLR2. Compte tenu de leur synthèse efficace et de leur potentiel en tant qu’inhibiteurs, les azasulfurylpeptides devraient trouver une large utilisation dans les sciences de peptides pour des applications dans la médecine et de la chimie biologique.
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Resumo:
Les antibiotiques sont fréquemment utilisés dans l’alimentation de la volaille afin de prévenir certaines maladies, dont l’entérite nécrotique, ce qui occasionne l’émergence de souches bactériennes résistantes aux antibiotiques. Une alternative prometteuse est l’utilisation de peptides antimicrobiens (AMPs) comme suppléments alimentaires, tels les AMPs provenant des produits laitiers. L’objectif du projet était de développer une méthode de production d’extraits peptidiques à partir de coproduits de la transformation alimentaire (babeurre, lactoferrine, isolat de protéines de pois), afin de tester si ces extraits peptidiques possédaient une activité antimicrobienne sur les pathogènes spécifiques aviaires suivants : Salmonella Enteritidis, Salmonella Typhimurium, Escherichia coli et Staphylococcus aureus. Les protéines ont été mises en suspension dans l’eau (5% p/p) et hydrolysées par la pepsine, 6 heures, pH de 2.5. Les peptides furent récupérés par ultrafiltration (< 10 kDa), puis fractionnés selon leur charge nette : totaux, cationiques, anioniques et non liés. L’effet antimicrobien a été évalué surmicroplaques, par la survie bactérienne en présence de concentrations croissantes d’extraits peptidiques. Les extraits cationiques de babeurre ont démontré une efficacité à une concentration inférieure ou égale à 5 mg/mL; perte de 3 log pour Escherichia coli O78 :H80. En comparaison, la lactoferrine cationique a été efficace à une concentration inférieure ou égale à 0.6 mg/mL; perte de 6 log pour E. coli O78 :H80. Les extraits peptidiques du pois ont démontré une efficacité faible. Cette méthode s’avère prometteuse pour le développement d’une alternative ou d’un complément pour la réduction de l’utilisation des antibiotiques dans l’alimentation de la volaille.
Resumo:
Cet ouvrage explore en trois volets des aspects du traitement attentionnel de cibles et de distracteurs visuels ainsi que leur mesures électrophysiologiques. Le premier chapitre aborde le traitement attentionnel spécifique à la cible et aux distracteurs durant une recherche visuelle. La division de la N2pc en une NT et une PD remet en question la théorie proposant qu'il existe systématiquement une activité attentionnelle liée à un distracteur saillant, car un distracteur vert ne provoque aucune activité latéralisée propre. Le second chapitre aborde la question de la latéralisation des structures responsables du maintient et de la récupération d'information en mémoire visuelle à court-terme. En utilisant un paradigme de latéralisation de la cible et du distracteur, il nous est possible de vérifier qu'il existe une composante latéralisée négative dans la région temporale, la TCN, propre à la cible lors du rappel en mémoire. De plus, on observe également une composante latéralisée pour le distracteur sur la partie postérieure du crâne. Ces deux éléments convergent pour indiquer qu'il existe une latéralisation des structures activées lors de la récupération de l'information en mémoire visuelle à court-terme en fonction de l'hémichamps où se trouve la cible ou le distracteur. Enfin, dans le troisième chapitre, il est question de l'effet sur le déploiement attentionnel de l'ajout de distracteurs gris de faible saillance autour de cibles potentielles. L'ajout de ces distracteurs augmente la difficulté d'identification de la cible. Cette difficulté provoque un déplacement de l'activité de la N2pc vers la fenêtre de temps associée à la composante Ptc. Un nombre plus important de distracteurs gris entraîne une plus grande proportion de l'activité à être retardée. Également, les distracteurs gris qui sont placés entre les cibles potentielles provoquent un retard plus important que les distracteurs placés hors de cette région. Au cours de cette thèse, la question de la saillance attentionnelle des différentes couleurs durant une recherche visuelle est récurente. Nous observons une plus grande saillance du rouge par rapport au vert quand ils sont distracteurs et le vert est plus difficile à distinguer du gris que le jaune.
Resumo:
Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.
Resumo:
Les nanotechnologies sont devenues l’un des domaines de la recherche qui a connu une des plus fortes croissances au cours de ces dernières années. Partout dans le monde, des tentatives sont menées afin de proposer des scénarios didactiques d’enseignement des nanotechnologies dès l’école primaire. Compte tenu de l’avancée rapide des nanotechnologies et de leurs controverses de nombreuses questions vont pourtant émerger dans tous les domaines : technologiques, économiques, environnementaux, santé, éducation, éthique, morale et philosophique (Bensaude- Vincent, 2009). Il apparaît essentiel d’étudier les conditions d’enseignement des nanotechnologies auprès de lycéens en intégrant deux dimensions : l’une scientifique, l’autre sociale et éthique. Nos travaux se situent dans le courant de recherche en didactique des sciences qui prend en compte les interactions Sciences – Technologies - Société et plus particulièrement les SSI, (Socio Scientific Issues). Il s’agit d’étudier des dilemmes sociaux inhérents à certains champs scientifiques face aux avancées des sciences et technologies. Les sciences et les technologies sont des artéfacts et sont ainsi sujets à critiques parmi lesquelles les questions de pouvoir et d’inégalités potentielles doivent être étudiées. La mise en débat d’une question est envisagée comme une solution adaptée pour aborder les SSI (Sadler, 2004). Le débat argumenté dans le cadre de l’enseignement des sciences semble être un outil pédagogique adapté pour aborder avec les élèves les rapports entre recherche scientifiques et questions sociétales. Cependant, cette activité est complexe et difficile à mettre en oeuvre
Resumo:
Les travaux ici présentés se définissent explicitement comme des recherches sur des situations de formation d’enseignants non spécialistes aux problématiques des Enseignements Artistiques et Culturels1 [EAC]. Cela ne signifie pas que ces travaux relèvent de ce qui serait une «recherche appliquée»; bien au contraire, nous postulons que ces situations professionnelles renvoient à la recherche «fondamentale» en sciences des arts des questions originales et difficiles. Une des difficultés de la formation d’enseignants polyvalents est justement de leur apporter, dans des délais forcément réduits, des connaissances solides, alors qu’elles portent sur des champs disciplinaires multiples, et sur des noeuds théoriques qui se révèlent complexes
Resumo:
El presente trabajo de grado busca optimizar el proceso de Picking en la empresa productora de lentes oftálmicos Compulens y Llanes LTDA, para disminuir tiempos y agilizar la operación. Se utilizarán herramientas vistas a lo largo del pregrado de Administración en Logística y Producción, para realizar un análisis profundo del estado actual del proceso y el Layout de la bodega, para después aplicar herramientas propias de la investigación de operaciones, logística interna, entre otras, y proponer soluciones para conseguir los resultados esperados. Se partirá de un análisis de todos los tipos de bases para lentes oftálmicos que se tallan en la empresa, para plantear mejoras y buenas prácticas en los procesos que se llevan a cabo dentro de la bodega de almacenamiento. Dichas mejoras y recomendaciones tienen como finalidad ayudar a la empresa a cumplir la promesa de servicio a los clientes y evitar el atraso en la entrega de pedidos.
Resumo:
Esta investigación está creada para proyectar lo que sería la creación de un laboratorio de lentes llamado Anblick Lens, su ubicación en la ciudad de Bogotá permitirá un lugar central para de esta manera facilitar la distribución de los bienes que ofrece el mismo.
Resumo:
El WACC o Coste Medio Ponderado de Capital es la tasa a la que se deben descontar los flujos para evaluar un proyecto o empresa. Para calcular esta tasa es necesario determinar el costo de la deuda y el costo de los recursos propios de la compañía; el costo de la deuda es la tasa actual del mercado que la empresa está pagando por su deuda, sin embargo el costo de los recursos propios podría ser difícil y más complejo de estimar ya que no existe un costo explícito. En este trabajo se presenta un panorama de las teorías propuestas a lo largo de la historia para calcular el costo de los recursos propios. Como caso particular, se estimará el costo de los recursos propios sin apalancamiento financiero de seis empresas francesas que no cotizan en bolsa y pertenecientes al sector de Servicios a la Persona (SAP). Para lograr lo anterior, se utilizará el Proceso de Análisis Jerárquico (AHP) y el Modelo de Valoración del Precio de los Activos Financieros (CAPM) con base en lo presentado por Martha Pachón (2013) en “Modelo alternativo para calcular el costo de los recursos propios”.
Resumo:
Resumen tomado de la revista. Monográfico titulado: El placer de jugar. El placer de educar