841 resultados para Business planning -- Electronic data processing


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Loin de la réduction pressentie du temps de travail et de l’émergence d’une société des loisirs, est plutôt observé, depuis une trentaine d’années, un accroissement du temps consacré au travail pour les travailleurs les plus qualifiés, au Québec comme dans la plupart des sociétés occidentales (Burke et Cooper, 2008; Lapointe, 2005; Lee, 2007). Dans un contexte où les « arrangements temporels » (Thoemmes, 2000) tendent à s’individualiser de façon à mieux prendre en compte les réalités et les besoins des salariés et salariées tout comme ceux des organisations, cette thèse interroge le caractère « volontaire » des conduites d’hypertravail observées chez les travailleurs et les travailleuses des secteurs des services informatiques et du multimédia. Elle s’attarde plus particulièrement aux processus psychosociaux qui sous-tendent la construction de ces conduites. Inscrite au sein d’une approche psychosociale et systémique, notre recherche articule une théorie qui met en résonance les fonctionnements individuel et organisationnel, soutenue par le modèle du Système psychique organisationnel (Aubert et de Gaulejac, 1991), et une théorie de la socialisation plurielle et active, soutenue par le modèle du Système des activités (Baubion-Broye et Hajjar, 1998; Curie, 2000). Opérationnalisée selon une grille articulée autour de cinq niveaux d’analyse (intra-individuel, interpersonnel, positionnel, idéologique et de la tâche et de l’organisation du travail), nous avons mené 34 entretiens biographiques (26 hommes et 8 femmes) auprès de salariés et salariées des secteurs des services informatiques et du multimédia. Les résultats mettent en évidence trois types de processus menant à l’adoption de conduites d’hypertravail ; un cas-type qui illustre un processus de renforcement d’une identité professionnelle de « grand travailleur » ; un cas-type qui rend compte d’un processus de suraffiliation organisationnelle et d’assujettissement de la vie hors-travail; et un cas-type qui expose le maintien d’une conduite d’hypertravail défensive, dans un contexte de mise à l’épreuve organisationnelle. Au final, les résonances particulières observées entre ces niveaux et facteurs nous amènent à souligner l’intérêt de mieux comprendre l’hypertravail en prenant en compte les significations que les individus donnent à leurs conduites, à partir d’un regard diachronique et synchronique. Nous discutons également du caractère dynamique et évolutif de la relation individu-collectif-organisation et du rôle différencié des organisations et des collectifs de travail dans la construction des conduites d’hypertravail. Nous relevons enfin certaines implications des nouvelles pratiques et normes de temps de travail observées dans ces organisations, favorables au développement et au maintien de l’hypertravail. Mots-clés : temps de travail, longues heures de travail, conduites d’hypertravail, articulation travail-vie personnelle, socialisation plurielle et active, domination au travail.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino de Física e Química no 3º ciclo do Ensino Básico e no Ensino Secundário, Universidade de Lisboa, 2015

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents the creation and development of technological schools directly linked to the business community and to higher public education. Establishing themselves as the key interface between the two sectors they make a signigicant contribution by having a greater competitive edge when faced with increasing competition in the tradional markets. The development of new business strategies supported by references of excellence, quality and competitiveness also provides a good link between the estalishment of partnerships aiming at the qualification of education boards at a medium level between the technological school and higher education with a technological foundation. We present a case study as an example depicting the success of Escola Tecnológica de Vale de Cambra.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O intenso intercâmbio entre os países, resultante do processo de globalização, veio acrescer importância ao mercado de capitais. Os países em desenvolvimento procuram abrir as suas economias para receber investimentos externos. Quanto maior for o grau de desenvolvimento de uma economia mais ativo será o seu mercado de capitais. No entanto, tem-se verificado uma tendência de substituição de enfoque económico, que antes era mais dirigido ao planeamento empresarial para metas mais ligadas ao meio ambiente. O mercado de capitais é um sistema de distribuição de valores mobiliários cujo objectivo é proporcionar liquidez a títulos emitidos pelas empresas, com a finalidade de viabilizar o processo de capitalização desses papéis. O mercado de capitais é composto pelas bolsas de valores, sociedades corretoras e outras instituições financeiras que têm autorização da Comissão de Valores dos Mercados Mobiliários (CMVM). O mercado bolsista insere-se no mercado de capitais. Nesses mercados, é importante conseguir conjuntamente a maximização dos recursos (retornos) e minimização dos custos (riscos). O principal objectivo das bolsas de valores é promover um ambiente de negociação dos títulos e dos valores mobiliários das empresas. Muitos investidores têm a sua própria maneira de investir, consoante o perfil que cada um tem. Além do perfil dos investidores, é também pertinente analisar a questão do risco. Vaughan (1997) observa que, nos dias atuais, a questão da administração do risco está presente na vida de todos. Este trabalho tem o propósito de demonstrar a necessidade da utilização de ferramentas para a seleção de ativos e para a mensuração do risco e do retorno de aplicações de recursos financeiros nesses activos de mercados de capitais, por qualquer tipo de investidor, mais especificamente na compra de ações e montagem de uma carteira de investimento. Para isso usou-se o método de Elton e Gruber, analisou-se as rentabilidades, os riscos e os índices de desempenho de Treynor e Sharpe. Testes estatísticos para os retornos das ações foram executados visando analisar a aleatoriedade dos dados. Este trabalho conclui que pode haver vantagens na utilização do método de Elton e Gruber para os investidores propensos a utilzar ações de empresas socialmente responsáveis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O sector do turismo é uma área francamente em crescimento em Portugal e que tem desenvolvido a sua divulgação e estratégia de marketing. Contudo, apenas se prende com indicadores de desempenho e de oferta instalada (número de quartos, hotéis, voos, estadias), deixando os indicadores estatísticos em segundo plano. De acordo com o “ Travel & tourism Competitiveness Report 2013”, do World Economic Forum, classifica Portugal em 72º lugar no que respeita à qualidade e cobertura da informação estatística, disponível para o sector do Turismo. Refira-se que Espanha ocupa o 3º lugar. Uma estratégia de mercado, sem base analítica, que sustente um quadro de orientações específico e objetivo, com relevante conhecimento dos mercados alvo, dificilmente é compreensível ou até mesmo materializável. A implementação de uma estrutura de Business Intelligence que permita a realização de um levantamento e tratamento de dados que possibilite relacionar e sustentar os resultados obtidos no sector do turismo revela-se fundamental e crucial, para que sejam criadas estratégias de mercado. Essas estratégias são realizadas a partir da informação dos turistas que nos visitam, e dos potenciais turistas, para que possam ser cativados no futuro. A análise das características e dos padrões comportamentais dos turistas permite definir perfis distintos e assim detetar as tendências de mercado, de forma a promover a oferta dos produtos e serviços mais adequados. O conhecimento obtido permite, por um lado criar e disponibilizar os produtos mais atrativos para oferecer aos turistas e por outro informá-los, de uma forma direcionada, da existência desses produtos. Assim, a associação de uma recomendação personalizada que, com base no conhecimento de perfis do turista proceda ao aconselhamento dos melhores produtos, revela-se como uma ferramenta essencial na captação e expansão de mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: This study describes the prevalence, associated anomalies, and demographic characteristics of cases of multiple congenital anomalies (MCA) in 19 population-based European registries (EUROCAT) covering 959,446 births in 2004 and 2010. METHODS: EUROCAT implemented a computer algorithm for classification of congenital anomaly cases followed by manual review of potential MCA cases by geneticists. MCA cases are defined as cases with two or more major anomalies of different organ systems, excluding sequences, chromosomal and monogenic syndromes. RESULTS: The combination of an epidemiological and clinical approach for classification of cases has improved the quality and accuracy of the MCA data. Total prevalence of MCA cases was 15.8 per 10,000 births. Fetal deaths and termination of pregnancy were significantly more frequent in MCA cases compared with isolated cases (p < 0.001) and MCA cases were more frequently prenatally diagnosed (p < 0.001). Live born infants with MCA were more often born preterm (p < 0.01) and with birth weight < 2500 grams (p < 0.01). Respiratory and ear, face, and neck anomalies were the most likely to occur with other anomalies (34% and 32%) and congenital heart defects and limb anomalies were the least likely to occur with other anomalies (13%) (p < 0.01). However, due to their high prevalence, congenital heart defects were present in half of all MCA cases. Among males with MCA, the frequency of genital anomalies was significantly greater than the frequency of genital anomalies among females with MCA (p < 0.001). CONCLUSION: Although rare, MCA cases are an important public health issue, because of their severity. The EUROCAT database of MCA cases will allow future investigation on the epidemiology of these conditions and related clinical and diagnostic problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Research has noted both physical and psychosocial benefits when children participate in regular physical activity. Recent studies are indicating that there may also be academic benefits and that students may be more efficient learners with participation in physical activity. This study investigated the influence of acute moderate-to-vigorous physical activity on four cognitive functions: planning, attention, simultaneous processing, and successive processing. Three classes (59 students) were each tested twice using a balanced design (intervention, balance, and control groups). It was found that the intervention group had a large increase in planning abiHty (ES = 1.67) when compared to the balance (ES = .80) and control (ES = -.89) groups. On the three remaining cognitive functions, the intervention group showed effect sizes similar to that of the balance and control groups. These results indicate that improved planning after physical activity may playa role in improving student performance.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examined nurses' attitudes toward computers before training and 2 months after training. A quantitative approach and a nonexperimental survey design were used in this study. Stronge and Brodt's (1985) instrument, Nurses' Attitudes Toward Computerization Questionnaire, was used to assess 27 nurses' attitudes prior to and 2 months after computer training. Demographic variables also were collected on the questionnaires. The results of this study showed that, overall, nurses had positive attitudes towards computers in both questionnaires. The results of the first questionnaire were consistent with other studies. There were no studies that involved a follow-up questionnaire using Stronge and Brodt's (1985) instrument. Attitude scores of Questionnaire 2 were higher than attitude scores of Questionnaire 1. More time for nursing tasks, less time for quality patient care, and threat to job security questions were found to be statistically significant. This study found no statistical significance between attitudes and demographic variables. Younger nurses a~d nurses with fewer years of computer experience were most likely to exhibit positive attitudes. Implications for practice and future research were discussed. Some limitations were identified and discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A simple, low-cost concentric capillary nebulizer (CCN) was developed and evaluated for ICP spectrometry. The CCN could be operated at sample uptake rates of 0.050-1.00 ml min'^ and under oscillating and non-oscillating conditions. Aerosol characteristics for the CCN were studied using a laser Fraunhofter diffraction analyzer. Solvent transport efficiencies and transport rates, detection limits, and short- and long-term stabilities were evaluated for the CCN with a modified cyclonic spray chamber at different sample uptake rates. The Mg II (280.2nm)/l\/lg 1(285.2nm) ratio was used for matrix effect studies. Results were compared to those with conventional nebulizers, a cross-flow nebulizer with a Scott-type spray chamber, a GemCone nebulizer with a cyclonic spray chamber, and a Meinhard TR-30-K3 concentric nebulizer with a cyclonic spray chamber. Transport efficiencies of up to 57% were obtained for the CCN. For the elements tested, short- and long-term precisions and detection limits obtained with the CCN at 0.050-0.500 ml min'^ are similar to, or better than, those obtained on the same instrument using the conventional nebulizers (at 1.0 ml min'^). The depressive and enhancement effects of easily ionizable element Na, sulfuric acid, and dodecylamine surfactant on analyte signals with the CCN are similar to, or better than, those obtained with the conventional nebulizers. However, capillary clog was observed when the sample solution with high dissolved solids was nebulized for more than 40 min. The effects of data acquisition and data processing on detection limits were studied using inductively coupled plasma-atomic emission spectrometry. The study examined the effects of different detection limit approaches, the effects of data integration modes, the effects of regression modes, the effects of the standard concentration range and the number of standards, the effects of sample uptake rate, and the effect of Integration time. All the experiments followed the same protocols. Three detection limit approaches were examined, lUPAC method, the residual standard deviation (RSD), and the signal-to-background ratio and relative standard deviation of the background (SBR-RSDB). The study demonstrated that the different approaches, the integration modes, the regression methods, and the sample uptake rates can have an effect on detection limits. The study also showed that the different approaches give different detection limits and some methods (for example, RSD) are susceptible to the quality of calibration curves. Multicomponents spectral fitting (MSF) gave the best results among these three integration modes, peak height, peak area, and MSF. Weighted least squares method showed the ability to obtain better quality calibration curves. Although an effect of the number of standards on detection limits was not observed, multiple standards are recommended because they provide more reliable calibration curves. An increase of sample uptake rate and integration time could improve detection limits. However, an improvement with increased integration time on detection limits was not observed because the auto integration mode was used.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.