997 resultados para softwares estatísticos
Resumo:
Se presenta el diseño curricular base de métodos estadísticos y numéricos, asignatura optativa de bachillerato en Galicia, de cara a garantizar una formación común en toda la comunidad. Se analizan los objetivos, los contenidos (conceptuales, procedimentales y actitudinales) y los criterios de evaluación correspondientes a esta asignatura.
Resumo:
Incluye presentación en Power Point y vídeo
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
Nowadays, the free software has been presented as an alternative to the acquisition structure of proprietors¿ software licenses, being adopted by a large number of companies. This study presents the analysis, through a case study, of a project of proprietors¿ software migration for free platforms. The main purpose was to identify decisive factors of success in the adoption of free softwares for private companies. For this, was used the single case methodology of study, presented by Yin (2005). The theoretical referential approaches issues related to the definitions and the historic of the free software, the resistance to information systems and the change resistance. The idea is to look for the fundamentals to support the researchers understanding of the situations observed in the field. The data found at this research was analyzed using a meta-frame, which has as the main point the Unified Theory of Acceptance and Use of Information Technology, developed by Venkatesh et al. (2003). Also, to complete this meta-frame, were used the Technology Acceptance Model, proposed by Davis (1989), and Interaction¿s Model of system and context of Use, developed by Markus (1983). The researche¿s result has been gotten by the analysis of documentation, interviews, questionnaires, direct observation and participant observation, that made possible the obtaining of valuable group of data on the researched subject. The result of this research allow the establishment of subsidies for the planning and development of project of proprietors¿ softwares migration for free softwares.
Resumo:
Resumo não disponível.
Resumo:
Esta dissertação procurou identificar as diretrizes de supervisão dos mercados futuros no Brasil frente às práticas de regulação utilizadas em outros países do mundo, basicamente aqueles cujas economias e mercados são maiores do que o brasileiro, em volume de contratos negociados. O desenvolvimento do tema se deu de maneira a estimular o uso de tais práticas na estrutura local de supervisão, com vistas a uma melhoria da atividade dos órgãos reguladores e ao crescimento do mercado de capitais brasileiro. Dentre as referidas práticas, destacou-se a utilização de modelos estatísticos de precificação dos contratos negociados no sentido de balizar a atuação dos departamentos de fiscalização na investigação de condições artificiais de mercado. A abordagem desses modelos abrangeu desde a definição de conceitos fundamentais até a apresentação de um estudo de caso com opções sobre ações, passando pela caracterização dos principais modelos e formas de calcular a volatilidade no preço desses títulos. Os resultados de pesquisa foram relacionados às origens legais e ao desenvolvimento econômico recente do Brasil, que levaram à sofisticação dos mecanismos de financiamento do mercado de capitais nacional, não se limitando ao simples apontamento dos pontos fracos da estrutura local de supervisão. Finalmente, a pesquisa evoluiu para as necessidades práticas da atividade de supervisão a serem atendidas pelo regulador, segundo as características operacionais dos principais mercados, a fim de que a bolsa de futuros brasileira reforce sua posição competitiva no cenário mundial.
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
Aborda o impacto da implantação dos sistemas ERP - Enterprise Resource Planning- sobre a Contabilidade e sobre o Papel do Contador Gerencial. Analisa quais foram as alterações estruturais, - funcionais e de responsabilidades ocorridas com a contabilidade gerencial, após a implantação do ERP, bem como as alterações ocorridas no papel do contador gerencial, nas suas funções, na sua importância e no seu papel nas organizações. Identifica, em função desse novo papel, quais são as novas habilidades que o contador gerencial deverá incorporar
Resumo:
Esta dissertação procurou identificar as diretrizes de supervisão dos mercados futuros no Brasil frente às práticas de regulação utilizadas em outros países do mundo, basicamente aqueles cujas economias e mercados são maiores do que o brasileiro, em volume de contratos negociados. O desenvolvimento do tema se deu de maneira a estimular o uso de tais práticas na estrutura local de supervisão, com vistas a uma melhoria da atividade dos órgãos reguladores e ao crescimento do mercado de capitais brasileiro. Dentre as referidas práticas, destacou-se a utilização de modelos estatísticos de precificação dos contratos negociados no sentido de balizar a atuação dos departamentos de fiscalização na investigação de condições artificiais de mercado. A abordagem desses modelos abrangeu desde a definição de conceitos fundamentais até a apresentação de um estudo de caso com opções sobre ações, passando pela caracterização dos principais modelos e formas de calcular a volatilidade no preço desses títulos. Os resultados de pesquisa foram relacionados às origens legais e ao desenvolvimento econômico recente do Brasil, que levaram à sofisticação dos mecanismos de financiamento do mercado de capitais nacional, não se limitando ao simples apontamento dos pontos fracos da estrutura local de supervisão. Finalmente, a pesquisa evoluiu para as necessidades práticas da atividade de supervisão a serem atendidas pelo regulador, segundo as características operacionais dos principais mercados, a fim de que a bolsa de futuros brasileira reforce sua posição competitiva no cenário mundial.
Resumo:
O cenário empresarial atual leva as empresas a terem atuações cada vez mais dinâmicas, buscando utilizar as informações disponíveis de modo a melhorar seu processo de decisão. Com esse objetivo, diversas organizações têm adquirido sistemas de business intelligence. O processo de seleção de sistemas é difícil, diferente do utilizado em outras aquisições empresariais e sofre influência de diversos aspectos intangíveis, o que impossibilita o uso das técnicas de análise financeira normalmente utilizadas pelas companhias para apoiar decisões de investimento. Dessa forma, pode-se dizer que a decisão de escolha de um software de business intelligence é baseada em um conjunto de fatores tanto tangíveis quanto intangíveis. Este trabalho teve como objetivo principal identificar e estabelecer um ranking dos principais fatores que influenciam a decisão de escolha entre sistemas de business intelligence, tendo como foco empresas do setor de incorporação imobiliária atuantes na grande São Paulo e como objetivo secundário procurar identificar a possível existência de aspectos determinantes para a decisão de escolha entre a lista de fatores apurados. Essa pesquisa foi realizada através de doze entrevistas com pessoas que participaram de processos de decisão de escolha de sistemas de business intelligence, sendo algumas da área de TI e outras de área de negócio, atuantes em sete empresas incorporadoras da grande São Paulo. Essa avaliação teve como resultado a identificação dos fatores mais importantes e a sua classificação hierárquica, possibilitando a apuração de um ranking composto pelos catorze fatores mais influentes na decisão de escolha e statisticamente válido segundo o coeficiente de concordância de Kendall. Desse total, apenas três puderam ser classificados como determinantes ou não determinantes; o restante não apresentou padrões de resposta estatisticamente válidos para permitir conclusões sobre esse aspecto. Por fim, após a análise dos processos de seleção utilizados pelas sete empresas dessa pesquisa, foram observadas duas fases, as quais sofrem influência de distintos fatores. Posteriormente, estudando-se essas fases em conjunto com os fatores identificados no ranking, pôde-se propor um processo de seleção visando uma possível redução de tempo e custo para a realização dessa atividade. A contribuição teórica deste trabalho está no fato de complementar as pesquisas que identificam os fatores de influência no processo de decisão de escolha de sistemas, mais especificamente de business intelligence, ao estabelecer um ranking de importância para os itens identificados e também o relacionamento de fatores de importância a fases específicas do processo de seleção identificadas neste trabalho.
Resumo:
The study of complex systems has become a prestigious area of science, although relatively young . Its importance was demonstrated by the diversity of applications that several studies have already provided to various fields such as biology , economics and Climatology . In physics , the approach of complex systems is creating paradigms that influence markedly the new methods , bringing to Statistical Physics problems macroscopic level no longer restricted to classical studies such as those of thermodynamics . The present work aims to make a comparison and verification of statistical data on clusters of profiles Sonic ( DT ) , Gamma Ray ( GR ) , induction ( ILD ) , neutron ( NPHI ) and density ( RHOB ) to be physical measured quantities during exploratory drilling of fundamental importance to locate , identify and characterize oil reservoirs . Software were used : Statistica , Matlab R2006a , Origin 6.1 and Fortran for comparison and verification of the data profiles of oil wells ceded the field Namorado School by ANP ( National Petroleum Agency ) . It was possible to demonstrate the importance of the DFA method and that it proved quite satisfactory in that work, coming to the conclusion that the data H ( Hurst exponent ) produce spatial data with greater congestion . Therefore , we find that it is possible to find spatial pattern using the Hurst coefficient . The profiles of 56 wells have confirmed the existence of spatial patterns of Hurst exponents , ie parameter B. The profile does not directly assessed catalogs verification of geological lithology , but reveals a non-random spatial distribution