736 resultados para Laredo, Bernardino de.
Resumo:
Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.
Resumo:
A existência de hospitais específicos para pacientes de longa permanência se justifica pela necessidade de profissionais e cuidados especializados na sua assistência. O processo que leva à alta hospitalar nessas instituições tem se mostrado mais complexo do que apenas a estabilização do quadro clínico, incluindo fatores que adiam a saída do paciente. O objetivo desta dissertação é identificar os motivos pelos quais pacientes de alta hospitalar permanecem internados dentro de um hospital público de longa permanência situado na Grande São Paulo, na região do Alto Tiete. Um estudo exploratório descritivo transversal identificou 1.211 internações entre janeiro de 2011 e dezembro de 2014, sendo a média de idade de 53,9 anos e com predomínio do sexo masculino (62,7%). Das 822 internações analisadas, ocorreram “atrasos” na saída em 466 casos (56,7%). A média de atraso foi de 19,1 dias (variação de 1 a 606 dias), gerando um total de 8.895 pacientes-dia que poderiam ter sido evitados. Os principais motivos de atraso foram: transporte familiar (39,7%), aguardo de ambulância (14,8%), suporte da rede (12,7%), resistência familiar para saída (12,4%) e adequação de casa/equipamentos (9,4%). Foram propostas formas que poderiam acarretar em diminuição do período de internação hospitalar, uma vez que essa atuação é resultado de combinações de diversos fatores em diferentes áreas. Entretanto, as medidas que devem ser tomadas fundamentam-se num adequado entendimento do sistema de saúde local, do contexto cultural e da legislação vigente.
Resumo:
A mudança do perfil demográfico e epidemiológico das populações, com progressivo envelhecimento populacional e aumento de portadores de doenças crônicas não transmissíveis, somado a necessidade da ampliação da oferta de serviços de saúde e crescentes custos em saúde, impõe enormes desafios aos sistemas e serviços de saúde. A eficiência organizacional dos serviços de saúde tem papel importante tanto na racionalização dos custos quanto na melhoria da qualidade e segurança assistencial. Tendo papel central nos sistemas de saúde como centros difusores de conhecimento, capacitação profissional, incorporação de tecnologias, prestação de serviços de maior complexidade aos pacientes e, consequentemente, elevados custos destes serviços, aos hospitais é fundamental a busca por essa eficiência. Este estudo buscou analisar se existe trade-off entre eficiência e qualidade em organizações hospitalares e identificar quais determinantes poderiam estar associados com maiores ou menores escores de eficiência. Utilizou-se dois modelos de análise de envelopamento de dados (data envelopment analysis, DEA), sem e com variáveis de qualidade, com retornos variáveis de escala e orientados para resultado. Foram estudados 47 hospitais gerais públicos do estado de São Paulo. No modelo sem variáveis de qualidade 14 deles foram considerados eficientes, enquanto que 33 no modelo com estas variáveis. O coeficiente de correlação de Spearman entre os dois modelos foi de 0,470 (correlação moderada). Não há evidências de que haja trade-off entre eficiência e qualidade nestas organizações hospitalares. Hospitais eficientes no modelo sem variáveis de qualidade, também o foram com variáveis de qualidade, assim como houve hospitais ineficientes no modelo sem variáveis de qualidade que foram eficientes com estas variáveis. Não foram encontradas associações estatisticamente significantes (p<0,05) entre eficiência e as características dos hospitais estudados, como acreditação, modelos de gestão, porte hospitalar e atividades de ensino, apesar de alguns achados de maior ou menor escore de eficiência para alguns determinantes. Desta maneira, concluiu-se que a utilização de variáveis de qualidade é um fator fundamental na determinação da eficiência de organizações de saúde, e não podem estar dissociadas. Gestões eficientes também estão relacionadas à obtenção de melhores resultados assistenciais sem a necessidade que se tenha de optar em alcançar melhores resultados econômico-financeiros ou melhores resultados assistenciais.
Resumo:
This thesis reports on research done for the integration of eye tracking technology into virtual reality environments, with the goal of using it in rehabilitation of patients who suffered from stroke. For the last few years, eye tracking has been a focus on medical research, used as an assistive tool to help people with disabilities interact with new technologies and as an assessment tool to track the eye gaze during computer interactions. However, tracking more complex gaze behaviors and relating them to motor deficits in people with disabilities is an area that has not been fully explored, therefore it became the focal point of this research. During the research, two exploratory studies were performed in which eye tracking technology was integrated in the context of a newly created virtual reality task to assess the impact of stroke. Using an eye tracking device and a custom virtual task, the system developed is able to monitor the eye gaze pattern changes over time in patients with stroke, as well as allowing their eye gaze to function as an input for the task. Based on neuroscientific hypotheses of upper limb motor control, the studies aimed at verifying the differences in gaze patterns during the observation and execution of the virtual goal-oriented task in stroke patients (N=10), and also to assess normal gaze behavior in healthy participants (N=20). Results were found consistent and supported the hypotheses formulated, showing that eye gaze could be used as a valid assessment tool on these patients. However, the findings of this first exploratory approach are limited in order to fully understand the effect of stroke on eye gaze behavior. Therefore, a novel model-driven paradigm is proposed to further understand the relation between the neuronal mechanisms underlying goal-oriented actions and eye gaze behavior.
Resumo:
The pulsed plasma nitriding is a solution currently used in the metallurgical industry to resolve problems earlier in the processing of parts by using plasma DC voltage. These problems consisted mainly of edge effect and opening arches caused due to non-uniformity of electric fields on uneven surfaces. By varying the pulse width can reduce these effects. However, variations in pulse width can drastically affect the population of the plasma species and hence the final microstructure of the nitrided layer. In literature, little is known about the effect of process parameters on the properties of the plasma species and, consequently, the surface properties. We have developed a system of nitriding with pulsed source with fixed period of 800 pulse width is variable. Examined the variation of these parameters on the properties of nitrided surface when keeping constant temperature, gas composition, flow, pressure and power. It was found that the values of width and pulse repetition time of considerable influence in the intensities of the species present in plasma. Moreover, we observed the existence of the edge effect for some values of pulse widths, as well as changes in surface roughness and hardness
Resumo:
Este trabalho foi realizado para avaliar o desenvolvimento e reprodução de Tetranychus urticae em cultivares comerciais de mamão Carica papaya. Foram utilizadas cultivares do grupo Formosa (Tainung 01 e Calimosa) e do grupo Solo (Golden e Sunrise). Para iniciar o bioensaio, foi transferida uma fêmea fertilizada por disco de folha (n=50 repetições) e retirado após um período de 12h, sendo avaliada a cada 12h, registrando-se o período de incubação, duração do estágio de imaturo, longevidade e fecundidade dos adultos e viabilidade desses estágios. Os resultados indicaram que as cultivares de mamão Tainung 01, Calimosa, Sunrise e Golden são bons hospedeiros para T. urticae. O parâmetro viabilidade não sofreu influência das cultivares em todas as fases de desenvolvimento avaliadas, apresentando valores superiores a 90%. Não houve diferença estatística entre as cultivares nos parâmetros: período de pre-oviposição e viabilidade dos ovos. A cultivar Tainung 01 apresentou menor potencial hospedeiro, embora houvesse menor duração nos estágios de ovo, larva, protoninfa e ovo-adulto. Nos parâmetros de tabela de vida e fertilidade, apresentou menores valores de Ro, r m e λ e maior valor de Td. Entre as cultivares, o Sunrise apresentou um elevado potencial hospedeiro para T. urticae, pois essa cultivar proporcionou a maior produção de ovos por fêmea, maior longevidade das fêmeas, bem como a maior taxa de reprodução (maior Ro, r m e λ e menor valor de Td).
Resumo:
A finite-difference scheme is used to calculate bound electronic states of an electron in a hydrogen atom subject to a magnetic field. The numerical results are in good agreement with exact results, in the absence of the magnetic field, and with a two-parameters variational calculation, when the magnetic field is applied.
Resumo:
This research stands in discussions involving the relationship between memory, history and space. We will work with the Café São Luiz in the neighborhood of Cidade Alta in Natal, an place which remains open and founded in 1953. The place was opened in the district of greater movement of the 1950s, a zone of concentration of commerce and leisure. In consequence an impulse of memory, the Café São Luiz was represented by different statements, which they built a space that serves to support memory and identity of a group. The speeches elaborate the Café São Luiz as a monument, a place of memory according to Pierre Nora. Among these discourses of construction of the Café São Luiz stands out the 1982 book titled Na Calçada do Café São Luiz by José Luiz Silva. This research aims to discuss the construction of the Café São Luiz as a place of memory, questioning their representations, traversing the authorship of speeches over the place
Resumo:
This work presents a proposal for introducing the teaching of Geometry Space study attempts to demonstrate that the use of manipulatives as a teaching resource can be an alternative learning facilitator for fixing the primitive concepts of geometry, the postulates and theorems, position relationships between points, lines and planes and calculating distances. The development makes use of a sequence of activities aimed at ensuring that students can build a more systematic learning and these are divided into four steps
Resumo:
Generally, arithmetic and geometric progressions are taught separately from ane and exponential functions, only by the use of memorized formulas and without any concern of showing students how these contents are related. This paper aims at presenting a way of teaching such contents in an integrated way, starting with the definition of ane and exponential functions relating them to situations from the daily life of the students. Then, characteristics and graphics of those functions are presented and, subsequently, arithmetic and geometric progression are shown as a restriction of the ane and exponential functions. Thus, the study of the progressions is introduced based on the functions mentioned above using situations from students daily lives as examples
Resumo:
In this study, we sought to address the weaknesses faced by most students when they were studying trigonometric functions sine and cosine. For this, we proposed the use of software Geogebra in performing a sequence of activities about the content covered. The research was a qualitative approach based on observations of the activities performed by the students of 2nd year of high school IFRN - Campus Caicfio. The activities enabled check some diculties encountered by students, well as the interaction between them during the tasks. The results were satisfactory, since they indicate that the use of software contributed to a better understanding of these mathematical concepts studied
Resumo:
Across the centuries, Mathematics - exact science as it is - has become a determining role in the life of man, which forms to use suprir needs of their daily lives. With this trajectory, is characterized the importance of science as an instrument of recovery not only conteudstica, but also a mathematician to know that leads the apprentice to be a dynamic process of learning ecient, able to find solutions to their real problems. However, it is necessary to understand that mathematical knowledge today requires a new view of those who deal directly with the teaching-learning process, as it is for them - Teachers of Mathematics - desmistificarem the version that mathematics, worked in the classroom, causes difficulties for the understanding of students. On this view, we tried to find this work a methodology that helps students better understand the Quadratic functions and its applications in daily life. Making use of knowledge Ethnomathematics, contextualizing the problems relating to the content and at the same time handling the software GeoGebra, aiming a better view of the behavior of graphs of functions cited
Resumo:
CMS is a general purpose experiment, designed to study the physics of pp collisions at 14 TeV at the Large Hadron Collider ( LHC). It currently involves more than 2000 physicists from more than 150 institutes and 37 countries. The LHC will provide extraordinary opportunities for particle physics based on its unprecedented collision energy and luminosity when it begins operation in 2007. The principal aim of this report is to present the strategy of CMS to explore the rich physics programme offered by the LHC. This volume demonstrates the physics capability of the CMS experiment. The prime goals of CMS are to explore physics at the TeV scale and to study the mechanism of electroweak symmetry breaking - through the discovery of the Higgs particle or otherwise. To carry out this task, CMS must be prepared to search for new particles, such as the Higgs boson or supersymmetric partners of the Standard Model particles, from the start- up of the LHC since new physics at the TeV scale may manifest itself with modest data samples of the order of a few fb(-1) or less. The analysis tools that have been developed are applied to study in great detail and with all the methodology of performing an analysis on CMS data specific benchmark processes upon which to gauge the performance of CMS. These processes cover several Higgs boson decay channels, the production and decay of new particles such as Z' and supersymmetric particles, B-s production and processes in heavy ion collisions. The simulation of these benchmark processes includes subtle effects such as possible detector miscalibration and misalignment. Besides these benchmark processes, the physics reach of CMS is studied for a large number of signatures arising in the Standard Model and also in theories beyond the Standard Model for integrated luminosities ranging from 1 fb(-1) to 30 fb(-1). The Standard Model processes include QCD, B-physics, diffraction, detailed studies of the top quark properties, and electroweak physics topics such as the W and Z(0) boson properties. The production and decay of the Higgs particle is studied for many observable decays, and the precision with which the Higgs boson properties can be derived is determined. About ten different supersymmetry benchmark points are analysed using full simulation. The CMS discovery reach is evaluated in the SUSY parameter space covering a large variety of decay signatures. Furthermore, the discovery reach for a plethora of alternative models for new physics is explored, notably extra dimensions, new vector boson high mass states, little Higgs models, technicolour and others. Methods to discriminate between models have been investigated. This report is organized as follows. Chapter 1, the Introduction, describes the context of this document. Chapters 2-6 describe examples of full analyses, with photons, electrons, muons, jets, missing E-T, B-mesons and tau's, and for quarkonia in heavy ion collisions. Chapters 7-15 describe the physics reach for Standard Model processes, Higgs discovery and searches for new physics beyond the Standard Model.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)